Diretrizes da Comissão da UE sobre Práticas Proibidas de IA

Diretrizes da Comissão da UE sobre práticas de IA proibidas sob a Lei de IA – Parte Um

Em 4 de fevereiro de 2025, a Comissão Europeia (CE) emitiu diretrizes sobre práticas de inteligência artificial (IA) proibidas estabelecidas pela Lei de IA da UE. Essas diretrizes, que atualmente são não vinculativas, fornecem clareza sobre práticas de IA proibidas que representam risco para os valores e direitos fundamentais da União Europeia, como garantir a segurança pública, o direito à privacidade e o direito à não discriminação.

Contexto

O propósito desta série de briefings em duas partes é auxiliar profissionais de privacidade e outros operadores de sistemas de IA a entender as implicações das diretrizes. A primeira parte aborda os quatro primeiros casos de uso conforme os Artigos 5(1)(a) a 5(1)(d) inclusivamente.

Período Interino – Aplicação

As disposições relativas a sistemas de IA proibidos entraram em vigor em 2 de fevereiro de 2025, com penalidades aplicáveis a partir de 2 de agosto de 2025, deixando um período interino de seis meses em relação à aplicação. Durante esse período, as disposições sobre sistemas de IA proibidos são obrigatórias, mesmo que as autoridades nacionais de vigilância de mercado ainda não estejam identificadas.

Práticas de IA Proibidas

O Artigo 5 da Lei de IA contém a lista de casos de uso de IA que são expressamente proibidos. Abaixo estão os casos de uso, o contexto e a justificativa por trás da proibição, além de destacar exceções permissíveis e exemplos de casos de uso que estão fora de escopo.

Manipulação e Decepção Artigo 5(1)(a)

O Artigo 5(1)(a) contém uma proibição de IA que utiliza técnicas subliminares ou estratégias manipulativas para distorcer significativamente o comportamento dos indivíduos, alterando suas capacidades de tomada de decisão, de forma que é razoavelmente provável que cause dano significativo.

Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O uso de técnicas subliminares deve ter como objetivo ou efeito distorcer materialmente o comportamento de uma pessoa ou grupo, resultando em uma decisão que a pessoa ou grupo não teria tomado de outra forma.

Exploração Nociva de Vulnerabilidades Artigo 5(1)(b)

O Artigo 5(1)(b) proíbe o uso de IA para explorar vulnerabilidades relacionadas à idade, deficiência ou condições socioeconômicas com o objetivo ou efeito de distorcer materialmente o comportamento dessa pessoa.

Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O sistema de IA deve explorar vulnerabilidades devido à idade, deficiência ou situações socioeconômicas.

Pontuação Social Artigo 5(1)(c)

O Artigo 5(1)(c) proíbe o uso de IA para categorizar indivíduos com base em seu comportamento social, pessoal ou profissional, ou características pessoais, quando isso resulta em tratamento injustificado ou prejudicial.

Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O sistema de IA deve ser destinado ou usado para a avaliação ou classificação de pessoas naturais ou grupos de pessoas ao longo de um determinado período de tempo.

Previsão de Ofensas Criminais Artigo 5(1)(d)

O Artigo 5(1)(d) proíbe sistemas de IA que avaliam a probabilidade de cometer ofensas, baseando-se exclusivamente em perfis automatizados ou características pessoais.

Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O sistema de IA deve fazer avaliações de risco que avaliem ou prevejam o risco de uma pessoa natural cometer uma ofensa.

Resumo da Linha do Tempo de Implementação da Lei de IA

Até agosto de 2025: As obrigações entram em vigor para provedores de modelos de IA de propósito geral. Os Estados-Membros devem implementar regras sobre penalidades e outras medidas de aplicação.

Até agosto de 2026: Início das obrigações de conformidade para sistemas de IA de alto risco.

Até agosto de 2027: As obrigações de conformidade para sistemas de IA de alto risco cobertos pelo Artigo 6(1) entram em vigor.

More Insights

Engenheiros de IA e Ética: Construindo Sistemas Inteligentes e Responsáveis

A Inteligência Artificial (IA) explodiu em capacidade, com avanços em aprendizado de máquina, processamento de linguagem natural e visão computacional. Este crescimento coloca os engenheiros de IA na...

A Imperativa da IA Responsável

A Dra. Anna Zeiter, vice-presidente de privacidade e responsabilidade de dados da eBay, afirma que a IA responsável não é apenas uma palavra da moda, mas uma imperativa fundamental. Ela destaca a...

Preservação de Dados em Inteligência Artificial Generativa

Ferramentas de inteligência artificial generativa (GAI) levantam preocupações legais, como privacidade de dados e segurança, e podem ser consideradas informações únicas que devem ser preservadas para...

Inteligência Artificial Responsável: Princípios e Benefícios

A inteligência artificial (IA) está mudando a maneira como vivemos e trabalhamos, tornando essencial seu uso responsável. Isso significa criar e utilizar sistemas de IA que sejam justos, transparentes...

Adotando IA Confiável para o Sucesso Empresarial

Nos últimos anos, a inteligência artificial (IA) se tornou uma ferramenta essencial para a tomada de decisões críticas nos negócios. No entanto, para operar efetivamente com a IA, as organizações...

Inteligência Artificial e o Futuro do Jogo: Desafios e Oportunidades

A aplicação da Inteligência Artificial (IA) na indústria do jogo apresenta oportunidades de eficiência, mas também traz crescentes expectativas regulatórias e riscos de responsabilidade. A...