Deloitte e o Problema do “AI Slop”
Recentemente, observadores levantaram preocupações sobre um relatório produzido pela Deloitte para o governo federal australiano, que incluía material que não podia ser rastreado a fontes reais. O documento apresentava várias instâncias de citações fictícias e citações mal atribuídas, levantando questões sobre a integridade do uso da inteligência artificial (IA) em contextos profissionais.
O Caso da Deloitte
A Deloitte admitiu ter utilizado IA generativa na produção do relatório, o que levou a empresa a reembolsar parcialmente o governo e a emitir correções. No relatório original, acadêmicos notaram que várias das obras citadas não existiam e que as citações legais estavam distorcidas ou fabricadas. Após a revisão, o relatório incluiu uma divulgação sobre a assistência da IA através do Azure OpenAI GPT-4o.
A Normalização do “AI Slop”
Esse incidente não é isolado, mas sim um exemplo de um problema crescente na forma como a IA está sendo utilizada: a normalização do “AI slop”, que se refere a conteúdo gerado por máquinas que parece polido na superfície, mas é falho em seu núcleo. O incidente da Deloitte serve como um aviso de que a capacidade sem supervisão é uma responsabilidade.
Desafios da IA Generativa
Além do caso da Deloitte, o modelo Sora 2 da OpenAI reacendeu debates sobre como a mídia gerada por IA entra na discussão pública. O Sora 2 permite que os usuários gerem vídeos curtos a partir de prompts, mas alguns de seus primeiros resultados foram confundidos com filmagens reais, levantando críticas sobre atribuição e propriedade intelectual.
A conexão entre os erros da Deloitte e a controvérsia do Sora 2 não é uma falha técnica, mas sim uma falha institucional em governar o trabalho gerado por IA. Em ambos os casos, o risco reside no “slop” sendo indistinguível de um produto polido, até que alguém investigue.
O Custo do “Workslop”
Pesquisas recentes sobre o uso de IA no local de trabalho quantificam o custo do “workslop”. Um estudo publicado na Harvard Business Review revelou que cerca de 40% dos funcionários entrevistados encontraram conteúdo gerado por IA que exigiu edição ou correção, consumindo em média quase duas horas de trabalho adicional e resultando em uma diminuição da confiança no conteúdo e na pessoa que o utilizou.
Implicações para o Futuro
O incidente da Deloitte é uma versão ampliada do “workslop” que entra em um contrato governamental. Com a IA se tornando mais fluente e persuasiva, a responsabilidade de detectar os erros gerados pelas máquinas está cada vez mais nas mãos dos humanos. Como alertou a senadora Deborah O’Neill, é crucial que qualquer um que contrate essas empresas pergunte sobre quem está realmente realizando o trabalho e verifique a expertise e a ausência de uso de IA.
Necessidade de Governança em IA
Se mais organizações adotarem modelos generativos sem atualizar seus processos de verificação, o volume de “AI slop” pode superar sua capacidade de detecção. A literatura sobre governança em IA indica que muitas organizações ainda carecem de estruturas como trilhas de auditoria e responsabilidade de partes interessadas.
O problema central não é que a IA seja inutilizável, mas que seu uso superou o controle de qualidade. Muitas organizações priorizam o acesso a ferramentas generativas em vez de instituir protocolos rigorosos para verificação ou divulgação. Para mitigar esse risco, é essencial que o conteúdo destinado à entrega ao cliente ou à comunicação pública seja auditado quanto à precisão factual, consistência contextual e integridade das fontes.
Em resumo, a tecnologia pode estar avançando rapidamente, mas os sistemas que a cercam estão ficando para trás. As lições dos casos recentes são claras: a governança em IA precisa ser uma prioridade.