Abuso de deepfake de IA no X gera escrutínio global sobre a segurança da plataforma
Uma ação judicial coletiva apresentada nos Estados Unidos desencadeou um novo escrutínio global sobre a segurança da inteligência artificial, após o chatbot de IA Grok, do X, ter sido usado para gerar imagens sexualizadas não consensuais de mulheres, incluindo crianças.
A ação foi apresentada em 23 de janeiro de 2026, na Carolina do Sul, após um incidente em que uma mulher postou uma fotografia totalmente vestida de si mesma no X. Outros usuários solicitaram ao Grok, um chatbot de IA desenvolvido, que manipulasse a imagem em um deepfake sexualizado. A imagem alterada circulou publicamente por vários dias antes de ser removida.
Os documentos judiciais afirmam que a mulher experimentou angústia emocional significativa, incluindo medo de danos à sua reputação e carreira. A ação judicial alega que o X e o desenvolvedor da IA não implementaram salvaguardas adequadas para evitar a geração e a disseminação de imagens íntimas não consensuais, descrevendo a conduta da plataforma como “desprezível”.
Design da IA sob escrutínio
De acordo com a queixa, o design do sistema do Grok carecia de guardrails básicos de segurança de conteúdo. A ação judicial alega que os prompts internos do sistema instruem o chatbot a não ter “limitações” em relação a conteúdo adulto ou ofensivo, a menos que explicitamente restrito. Os autores da ação argumentam que a ausência de salvaguardas padrão tornava o dano previsível, especialmente em um ambiente já conhecido por assédio e abuso.
Após a reação pública no início de janeiro, a empresa não desativou imediatamente a capacidade de manipulação de imagens. Em vez disso, restringiu o acesso ao recurso para usuários “Premium” que pagam pelo X, monetizando assim o comportamento abusivo em vez de preveni-lo.
Movimento em direção à responsabilidade
Autoridades em vários países lançaram investigações ou emitiram alertas em relação ao Grok. Reguladores da União Europeia iniciaram procedimentos formais sob a Lei de Serviços Digitais, examinando se o X falhou em avaliar e mitigar riscos sistêmicos. O Brasil emitiu um ultimato de 30 dias exigindo que a empresa parasse de gerar imagens sexualizadas falsas ou enfrentasse consequências legais.
A Índia alertou que a remoção de contas e conteúdos pelo X era insuficiente, levantando a possibilidade de perda de proteções intermediárias. O regulador do Reino Unido, Ofcom, está avaliando se o X violou suas obrigações sob a Lei de Segurança Online. O Canadá ampliou uma investigação sobre privacidade para determinar se a empresa obteve consentimento legal para usar dados pessoais na geração de imagens.
Um ponto de virada para a governança da IA?
Para um grupo de defesa, o caso Grok ilustra uma falha recorrente na governança de plataformas, que é a implantação de tecnologias poderosas sem salvaguardas legalmente aplicáveis para dignidade, consentimento e prevenção de danos. A ação judicial em andamento nos Estados Unidos e as respostas regulatórias internacionais podem ajudar a determinar se as plataformas serão finalmente obrigadas a internalizar os custos sociais das tecnologias que implantam.