Desafios da Governança em um Mundo de IA

Deloitte e o Problema do “AI Slop”

Recentemente, observadores levantaram preocupações sobre um relatório produzido pela Deloitte para o governo federal australiano, que incluía material que não podia ser rastreado a fontes reais. O documento apresentava várias instâncias de citações fictícias e citações mal atribuídas, levantando questões sobre a integridade do uso da inteligência artificial (IA) em contextos profissionais.

O Caso da Deloitte

A Deloitte admitiu ter utilizado IA generativa na produção do relatório, o que levou a empresa a reembolsar parcialmente o governo e a emitir correções. No relatório original, acadêmicos notaram que várias das obras citadas não existiam e que as citações legais estavam distorcidas ou fabricadas. Após a revisão, o relatório incluiu uma divulgação sobre a assistência da IA através do Azure OpenAI GPT-4o.

A Normalização do “AI Slop”

Esse incidente não é isolado, mas sim um exemplo de um problema crescente na forma como a IA está sendo utilizada: a normalização do “AI slop”, que se refere a conteúdo gerado por máquinas que parece polido na superfície, mas é falho em seu núcleo. O incidente da Deloitte serve como um aviso de que a capacidade sem supervisão é uma responsabilidade.

Desafios da IA Generativa

Além do caso da Deloitte, o modelo Sora 2 da OpenAI reacendeu debates sobre como a mídia gerada por IA entra na discussão pública. O Sora 2 permite que os usuários gerem vídeos curtos a partir de prompts, mas alguns de seus primeiros resultados foram confundidos com filmagens reais, levantando críticas sobre atribuição e propriedade intelectual.

A conexão entre os erros da Deloitte e a controvérsia do Sora 2 não é uma falha técnica, mas sim uma falha institucional em governar o trabalho gerado por IA. Em ambos os casos, o risco reside no “slop” sendo indistinguível de um produto polido, até que alguém investigue.

O Custo do “Workslop”

Pesquisas recentes sobre o uso de IA no local de trabalho quantificam o custo do “workslop”. Um estudo publicado na Harvard Business Review revelou que cerca de 40% dos funcionários entrevistados encontraram conteúdo gerado por IA que exigiu edição ou correção, consumindo em média quase duas horas de trabalho adicional e resultando em uma diminuição da confiança no conteúdo e na pessoa que o utilizou.

Implicações para o Futuro

O incidente da Deloitte é uma versão ampliada do “workslop” que entra em um contrato governamental. Com a IA se tornando mais fluente e persuasiva, a responsabilidade de detectar os erros gerados pelas máquinas está cada vez mais nas mãos dos humanos. Como alertou a senadora Deborah O’Neill, é crucial que qualquer um que contrate essas empresas pergunte sobre quem está realmente realizando o trabalho e verifique a expertise e a ausência de uso de IA.

Necessidade de Governança em IA

Se mais organizações adotarem modelos generativos sem atualizar seus processos de verificação, o volume de “AI slop” pode superar sua capacidade de detecção. A literatura sobre governança em IA indica que muitas organizações ainda carecem de estruturas como trilhas de auditoria e responsabilidade de partes interessadas.

O problema central não é que a IA seja inutilizável, mas que seu uso superou o controle de qualidade. Muitas organizações priorizam o acesso a ferramentas generativas em vez de instituir protocolos rigorosos para verificação ou divulgação. Para mitigar esse risco, é essencial que o conteúdo destinado à entrega ao cliente ou à comunicação pública seja auditado quanto à precisão factual, consistência contextual e integridade das fontes.

Em resumo, a tecnologia pode estar avançando rapidamente, mas os sistemas que a cercam estão ficando para trás. As lições dos casos recentes são claras: a governança em IA precisa ser uma prioridade.

More Insights

Colaboração e Competição na Governança de IA

O projeto Red Cell trabalha para desafiar suposições e promover abordagens alternativas para os desafios de política externa e de segurança nacional dos EUA. A inovação em inteligência artificial (IA)...

Política Nacional de IA do Paquistão: Rumo a um Mercado de $2,7 Bilhões

O Paquistão introduziu uma ambiciosa Política Nacional de IA com o objetivo de construir um mercado doméstico de IA de US$ 2,7 bilhões em cinco anos. A política se baseia em seis pilares principais:...

Implementando a Governança Ética em IA

O guia mais recente do nosso AI Futures Lab destaca a importância da governança ética em IA, enfatizando a necessidade urgente de considerar questões éticas em todas as iniciativas de transformação de...

Estratégia Abrangente de IA para a Educação Superior

A inteligência artificial está reformulando o aprendizado, o ensino e as operações nas instituições de ensino superior, oferecendo um companheiro de aprendizado personalizado que apoia o sucesso dos...

A Retórica da Revolução da IA: Desafios e Oportunidades

A transformação econômica da IA começou, com empresas como IBM e Salesforce demitindo funcionários e substituindo-os por chatbots de IA. Com a adoção acelerada da IA, governos devem agir rapidamente...

Ética do Trabalho Digital: Responsabilidade na Era da IA

A ética do trabalho digital está se tornando uma preocupação crescente à medida que a inteligência artificial é cada vez mais utilizada para tarefas que antes eram exclusivas dos humanos. Os líderes...