Desafios da Governança em um Mundo de IA

Deloitte e o Problema do “AI Slop”

Recentemente, observadores levantaram preocupações sobre um relatório produzido pela Deloitte para o governo federal australiano, que incluía material que não podia ser rastreado a fontes reais. O documento apresentava várias instâncias de citações fictícias e citações mal atribuídas, levantando questões sobre a integridade do uso da inteligência artificial (IA) em contextos profissionais.

O Caso da Deloitte

A Deloitte admitiu ter utilizado IA generativa na produção do relatório, o que levou a empresa a reembolsar parcialmente o governo e a emitir correções. No relatório original, acadêmicos notaram que várias das obras citadas não existiam e que as citações legais estavam distorcidas ou fabricadas. Após a revisão, o relatório incluiu uma divulgação sobre a assistência da IA através do Azure OpenAI GPT-4o.

A Normalização do “AI Slop”

Esse incidente não é isolado, mas sim um exemplo de um problema crescente na forma como a IA está sendo utilizada: a normalização do “AI slop”, que se refere a conteúdo gerado por máquinas que parece polido na superfície, mas é falho em seu núcleo. O incidente da Deloitte serve como um aviso de que a capacidade sem supervisão é uma responsabilidade.

Desafios da IA Generativa

Além do caso da Deloitte, o modelo Sora 2 da OpenAI reacendeu debates sobre como a mídia gerada por IA entra na discussão pública. O Sora 2 permite que os usuários gerem vídeos curtos a partir de prompts, mas alguns de seus primeiros resultados foram confundidos com filmagens reais, levantando críticas sobre atribuição e propriedade intelectual.

A conexão entre os erros da Deloitte e a controvérsia do Sora 2 não é uma falha técnica, mas sim uma falha institucional em governar o trabalho gerado por IA. Em ambos os casos, o risco reside no “slop” sendo indistinguível de um produto polido, até que alguém investigue.

O Custo do “Workslop”

Pesquisas recentes sobre o uso de IA no local de trabalho quantificam o custo do “workslop”. Um estudo publicado na Harvard Business Review revelou que cerca de 40% dos funcionários entrevistados encontraram conteúdo gerado por IA que exigiu edição ou correção, consumindo em média quase duas horas de trabalho adicional e resultando em uma diminuição da confiança no conteúdo e na pessoa que o utilizou.

Implicações para o Futuro

O incidente da Deloitte é uma versão ampliada do “workslop” que entra em um contrato governamental. Com a IA se tornando mais fluente e persuasiva, a responsabilidade de detectar os erros gerados pelas máquinas está cada vez mais nas mãos dos humanos. Como alertou a senadora Deborah O’Neill, é crucial que qualquer um que contrate essas empresas pergunte sobre quem está realmente realizando o trabalho e verifique a expertise e a ausência de uso de IA.

Necessidade de Governança em IA

Se mais organizações adotarem modelos generativos sem atualizar seus processos de verificação, o volume de “AI slop” pode superar sua capacidade de detecção. A literatura sobre governança em IA indica que muitas organizações ainda carecem de estruturas como trilhas de auditoria e responsabilidade de partes interessadas.

O problema central não é que a IA seja inutilizável, mas que seu uso superou o controle de qualidade. Muitas organizações priorizam o acesso a ferramentas generativas em vez de instituir protocolos rigorosos para verificação ou divulgação. Para mitigar esse risco, é essencial que o conteúdo destinado à entrega ao cliente ou à comunicação pública seja auditado quanto à precisão factual, consistência contextual e integridade das fontes.

Em resumo, a tecnologia pode estar avançando rapidamente, mas os sistemas que a cercam estão ficando para trás. As lições dos casos recentes são claras: a governança em IA precisa ser uma prioridade.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...