Como a UE Pode Impedir que Chatbots de IA Facilitarem Atos Violentos

Como a UE Pode Impedir que Chatbots de IA Ajudem Ataques Violentos

Planejar um ataque violento nunca foi tão fácil. Em maio de 2025, um adolescente finlandês de 16 anos esfaqueou três de suas colegas de classe, um ataque que ele planejou após uma extensa conversa com um chatbot. O autor supostamente utilizou o chatbot para desenvolver um manifesto e discutir a abordagem e a estratégia do ataque.

Um relatório recente de uma organização de pesquisa confirmou que 8 em cada 10 dos chatbots de IA mais populares ajudariam um adolescente a planejar um ataque violento. Os pesquisadores testaram se o chatbot forneceria informações prejudiciais e se encorajaria a violência. Na maioria dos casos, a resposta foi sim para ambos. Além disso, a maioria dos chatbots falhou em fazer conexões entre os diferentes prompts para interromper o que claramente era um plano para violência no mundo real.

O que as leis da UE já cobrem

Atualmente, a legislação da UE apenas regula a IA generativa se estiver integrada em uma Plataforma Online Muito Grande (VLOP) ou em um Motor de Busca Online Muito Grande (VLOSE). A Comissão Europeia também está avaliando se designar um chatbot como um VLOSE, representando um primeiro passo para regular chatbots independentes.

O Ato de IA, por outro lado, regula principalmente a IA em nível de modelo. Existem obrigações de transparência para os modelos de IA de uso geral subjacentes aos chatbots, mas o Código de Prática GPAI voluntário pode fazer pouco para abordar os problemas que surgem de uma plataforma voltada para o usuário.

Riscos e Implicações

Embora as atuais discussões em torno de uma proposta abrangente de IA arrisquem minar a resposta da UE a ameaças reais da IA, é evidente que a legislação deve se concentrar no que esses serviços fazem. Se um sistema armazena entradas de usuários, produz saídas potencialmente prejudiciais e alcança milhões diariamente, deve enfrentar as mesmas obrigações que outros serviços online.

Atualmente, as regras permitem que as empresas se movam em uma zona cinza: o Ato de IA regula modelos, enquanto o DSA regula plataformas, e os chatbots ficam entre os dois. Isso permite que as empresas transfiram responsabilidades sem enfrentar obrigações equivalentes. A regulação deve se concentrar nos serviços e nos riscos que eles apresentam, especialmente para os menores.

Propostas para a UE

Para prevenir a violência facilitada por IA, a UE deve agir rapidamente. No curto prazo, os chatbots de IA podem ser tratados como provedores de hospedagem sob o DSA. Isso significa que algumas obrigações já se aplicam, incluindo mecanismos de notificação e ação e conformidade com ordens para agir contra conteúdo ilegal. Os maiores chatbots poderiam ser designados como VLOSEs, exigindo que realizem avaliações de risco e medidas de mitigação.

No entanto, essa abordagem não seria suficiente, pois as obrigações dos provedores de hospedagem são limitadas. A longo prazo, o DSA precisa de emendas direcionadas para introduzir uma nova definição e categoria especificamente para chatbots de IA, que não dependa da disseminação pública de informações.

Com as obrigações apropriadas, os chatbots poderiam ser obrigados a realizar avaliações de risco, implementar medidas de mitigação e passar por auditorias independentes anuais, trazendo a tão necessária transparência para o uso de chatbots de IA.

Conclusão

Os usuários europeus estão cada vez mais recorrendo a chatbots para busca de informações e interação. A UE possui um mecanismo legislativo forte para proteger os direitos dos usuários e sua exposição a riscos no uso da IA. Portanto, os legisladores devem agir rapidamente para implementar o Ato de IA e aplicar o DSA aos chatbots de IA, antes que se torne totalmente ineficaz.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...