Diretrizes da Comissão da UE sobre práticas de IA proibidas sob a Lei de IA – Parte Um
Em 4 de fevereiro de 2025, a Comissão Europeia (CE) emitiu diretrizes sobre práticas de inteligência artificial (IA) proibidas estabelecidas pela Lei de IA da UE. Essas diretrizes, que atualmente são não vinculativas, fornecem clareza sobre práticas de IA proibidas que representam risco para os valores e direitos fundamentais da União Europeia, como garantir a segurança pública, o direito à privacidade e o direito à não discriminação.
Contexto
O propósito desta série de briefings em duas partes é auxiliar profissionais de privacidade e outros operadores de sistemas de IA a entender as implicações das diretrizes. A primeira parte aborda os quatro primeiros casos de uso conforme os Artigos 5(1)(a) a 5(1)(d) inclusivamente.
Período Interino – Aplicação
As disposições relativas a sistemas de IA proibidos entraram em vigor em 2 de fevereiro de 2025, com penalidades aplicáveis a partir de 2 de agosto de 2025, deixando um período interino de seis meses em relação à aplicação. Durante esse período, as disposições sobre sistemas de IA proibidos são obrigatórias, mesmo que as autoridades nacionais de vigilância de mercado ainda não estejam identificadas.
Práticas de IA Proibidas
O Artigo 5 da Lei de IA contém a lista de casos de uso de IA que são expressamente proibidos. Abaixo estão os casos de uso, o contexto e a justificativa por trás da proibição, além de destacar exceções permissíveis e exemplos de casos de uso que estão fora de escopo.
Manipulação e Decepção Artigo 5(1)(a)
O Artigo 5(1)(a) contém uma proibição de IA que utiliza técnicas subliminares ou estratégias manipulativas para distorcer significativamente o comportamento dos indivíduos, alterando suas capacidades de tomada de decisão, de forma que é razoavelmente provável que cause dano significativo.
Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O uso de técnicas subliminares deve ter como objetivo ou efeito distorcer materialmente o comportamento de uma pessoa ou grupo, resultando em uma decisão que a pessoa ou grupo não teria tomado de outra forma.
Exploração Nociva de Vulnerabilidades Artigo 5(1)(b)
O Artigo 5(1)(b) proíbe o uso de IA para explorar vulnerabilidades relacionadas à idade, deficiência ou condições socioeconômicas com o objetivo ou efeito de distorcer materialmente o comportamento dessa pessoa.
Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O sistema de IA deve explorar vulnerabilidades devido à idade, deficiência ou situações socioeconômicas.
Pontuação Social Artigo 5(1)(c)
O Artigo 5(1)(c) proíbe o uso de IA para categorizar indivíduos com base em seu comportamento social, pessoal ou profissional, ou características pessoais, quando isso resulta em tratamento injustificado ou prejudicial.
Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O sistema de IA deve ser destinado ou usado para a avaliação ou classificação de pessoas naturais ou grupos de pessoas ao longo de um determinado período de tempo.
Previsão de Ofensas Criminais Artigo 5(1)(d)
O Artigo 5(1)(d) proíbe sistemas de IA que avaliam a probabilidade de cometer ofensas, baseando-se exclusivamente em perfis automatizados ou características pessoais.
Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O sistema de IA deve fazer avaliações de risco que avaliem ou prevejam o risco de uma pessoa natural cometer uma ofensa.
Resumo da Linha do Tempo de Implementação da Lei de IA
Até agosto de 2025: As obrigações entram em vigor para provedores de modelos de IA de propósito geral. Os Estados-Membros devem implementar regras sobre penalidades e outras medidas de aplicação.
Até agosto de 2026: Início das obrigações de conformidade para sistemas de IA de alto risco.
Até agosto de 2027: As obrigações de conformidade para sistemas de IA de alto risco cobertos pelo Artigo 6(1) entram em vigor.