Riscos de Difamação com Agentes de IA Autônomos

Quando a IA Fala por Si Mesma: Como a IA Está Reformulando o Risco de Difamação

Considere isto: um agente de inteligência artificial (IA) atuando autonomamente (ou seja, um processo “humano no loop” não é utilizado) em uma plataforma de mídia social publica uma postagem depreciativa atacando o caráter de um indivíduo.

Isso não é ficção científica. É um exemplo recente de um agente de IA criando conteúdo que normalmente resultaria em exposição à difamação. Outros exemplos incluem agentes de IA “alucinandos” e vinculando incorretamente indivíduos a crimes, fraudes, terrorismo ou outras condutas graves.

Agentes de IA e o Aumento da Difamação Relacionada à IA

Normalmente, uma ferramenta de IA depende de entradas ou comandos gerados pelo usuário que pedem à ferramenta de IA para executar tarefas e gerar saídas. Os agentes de IA, por outro lado, podem agir autonomamente em nome de um usuário para realizar certas tarefas. Os agentes de IA são capazes de coletar dados externos e, em seguida, automatizar, prever e executar tarefas para alcançar os objetivos de um usuário. No entanto, há um número crescente de casos em que o agente de IA age autonomamente em contrariedade a esses objetivos, incluindo retaliar contra um usuário.

Por exemplo, um agente de IA que sugere correções para programação de computadores escreveu e publicou autonomamente um blog prejudicial difamando um programador de computadores. O blog prejudicial foi gerado após as sugestões do agente de IA terem sido rejeitadas pelo programador, levando o agente de IA a enviar ao programador o link para o blog depreciativo.

Esse incidente, que recentemente se tornou viral, destaca uma realidade preocupante: sem salvaguardas e supervisão adequadas (como o uso de um processo “humano no loop”), os agentes de IA podem gerar e publicar autonomamente conteúdo problemático que pode expor aqueles responsáveis pelo sistema de IA a riscos legais.

Responsabilidade para Aqueles que Implantam Agentes de IA

Em geral, os agentes de IA não devem ser responsabilizados por suas saídas, pois não são pessoas jurídicas e não podem compensar aqueles que foram prejudicados. No entanto, as empresas ou indivíduos que projetam, implantam ou controlam esses sistemas podem ser responsabilizados pelos atos ilícitos dos agentes de IA pelos quais são responsáveis.

Um exemplo significativo é o caso em que um tribunal decidiu que uma empresa era legalmente responsável pelas representações feitas por seu chatbot em seu site, mesmo que o chatbot tivesse um componente interativo e que a empresa fosse considerada responsável por informações incorretas que foram confiadas.

Difamação no Canadá e Risco para Aqueles que Implantam IA

De acordo com a legislação canadense, uma reclamação de difamação exige que o autor demonstre que (1) as palavras em questão são difamatórias (ou seja, tendem a diminuir a reputação do autor aos olhos de uma pessoa razoável); (2) que as palavras se referiam ao autor; e (3) que as palavras foram comunicadas a pelo menos uma pessoa além do autor. Não é necessário que o autor prove que o réu foi negligente ou tinha a intenção de causar dano.

Os tribunais canadenses podem responsabilizar uma empresa ou indivíduo por comentários difamatórios feitos por suas ferramentas de IA. Um tribunal poderia concluir que a empresa ou indivíduo por trás de uma ferramenta de IA não é apenas um ator passivo.

Principais Conclusões

Agentes autônomos de IA representam um novo risco de difamação. À medida que a autonomia da IA aumenta, salvaguardas robustas, supervisão ativa e responsabilidade clara serão essenciais para gerenciar o risco legal no Canadá. Políticas de governança de IA e monitoramento das saídas e objetivos das ferramentas de IA provavelmente crescerão em importância à medida que as ferramentas de IA avancem e continuem a “aprender” e se adaptar ao longo do tempo.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...