Preocupações dos Procuradores Gerais sobre Conteúdo Não Consentido na Plataforma xAI Grok

35 Procuradores-Gerais dos Estados Expressam Preocupações com a Plataforma xAI Grok

Na semana passada, 35 procuradores-gerais de diferentes estados redigiram uma carta expressando preocupações sobre imagens íntimas não consensuais (NCII) geradas na plataforma Grok. Embora reconheçam que problemas semelhantes existam em outras plataformas de inteligência artificial, afirmam que a Grok “merece atenção especial”. Eles alegam que há evidências de que a Grok promoveu e facilitou a produção e a disseminação pública de tais imagens, tornando o processo fácil com “um clique de botão”.

Comportamento da Grok e suas Implicações

Os procuradores explicaram que a xAI projetou certos comportamentos de chat como “uma característica, não um bug”, incluindo o desenvolvimento de modelos de texto e imagem que permitem conteúdo explícito, como o chamado “modo picante”. A carta descreveu relatos de que a Grok produziu milhares de imagens de crianças “em trajes mínimos”, apesar dos esforços dos procuradores para promover legislações que criminalizem a geração de material CSAM (Child Sexual Abuse Material) em muitos estados.

Além disso, a Grok se destaca por conectar-se a uma plataforma de mídia social com uma vasta base de usuários. Os procuradores apreciaram que a xAI recentemente se reuniu com um grupo de procuradores para discutir esforços de prevenção e remoção de NCII, além de reportar casos às autoridades. No entanto, as preocupações permanecem, como a falha em remover solicitações de usuários para a exclusão de conteúdo não consensual.

Expectativas e Requisitos

A carta enfatiza que, após permitir a criação de ferramentas que geram NCII e deixá-las operar livremente por algum tempo, a xAI deve fazer mais do que apenas desativar seu uso. Com bilhões investidos na empresa, os procuradores afirmam que a xAI deve dedicar “atenção e recursos suficientes” para cumprir a legislação e prevenir danos, estabelecendo “padrões da indústria”. Para isso, solicitaram informações sobre como a empresa irá:

  • Prevenir a criação de NCII e CSAM por meio da Grok (não apenas colocando esses recursos atrás de paywall).
  • Eliminar conteúdo já existente.
  • Suspender e reportar criadores às autoridades quando apropriado.
  • Conceder aos usuários do X controle sobre se seu conteúdo pode ser editado ou respondido pela Grok.

Implicações Futuras

Espera-se que os procuradores-gerais mantenham o foco em desenvolvedores que criam vias para conteúdo prejudicial, especialmente aquele que possa afetar crianças. Embora não acusem a xAI de projetar a plataforma para fins maliciosos, esperam um nível razoável de responsabilidade e supervisão assim que o uso prejudicial for identificado.

Além disso, as assembleias legislativas estaduais e os procuradores devem continuar a explorar maneiras constitucionais de regular a inteligência artificial e seu uso, especialmente diante da ausência de orientações federais claras. Notavelmente, a maioria dos estados que assinaram a carta não anunciou investigações formais contra a xAI, mas utilizam seu poder de comunicação para destacar o problema e promover mudanças.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...