Diretrizes da Comissão da UE sobre Práticas Proibidas de IA

Diretrizes da Comissão da UE sobre práticas de IA proibidas sob a Lei de IA – Parte Um

Em 4 de fevereiro de 2025, a Comissão Europeia (CE) emitiu diretrizes sobre práticas de inteligência artificial (IA) proibidas estabelecidas pela Lei de IA da UE. Essas diretrizes, que atualmente são não vinculativas, fornecem clareza sobre práticas de IA proibidas que representam risco para os valores e direitos fundamentais da União Europeia, como garantir a segurança pública, o direito à privacidade e o direito à não discriminação.

Contexto

O propósito desta série de briefings em duas partes é auxiliar profissionais de privacidade e outros operadores de sistemas de IA a entender as implicações das diretrizes. A primeira parte aborda os quatro primeiros casos de uso conforme os Artigos 5(1)(a) a 5(1)(d) inclusivamente.

Período Interino – Aplicação

As disposições relativas a sistemas de IA proibidos entraram em vigor em 2 de fevereiro de 2025, com penalidades aplicáveis a partir de 2 de agosto de 2025, deixando um período interino de seis meses em relação à aplicação. Durante esse período, as disposições sobre sistemas de IA proibidos são obrigatórias, mesmo que as autoridades nacionais de vigilância de mercado ainda não estejam identificadas.

Práticas de IA Proibidas

O Artigo 5 da Lei de IA contém a lista de casos de uso de IA que são expressamente proibidos. Abaixo estão os casos de uso, o contexto e a justificativa por trás da proibição, além de destacar exceções permissíveis e exemplos de casos de uso que estão fora de escopo.

Manipulação e Decepção Artigo 5(1)(a)

O Artigo 5(1)(a) contém uma proibição de IA que utiliza técnicas subliminares ou estratégias manipulativas para distorcer significativamente o comportamento dos indivíduos, alterando suas capacidades de tomada de decisão, de forma que é razoavelmente provável que cause dano significativo.

Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O uso de técnicas subliminares deve ter como objetivo ou efeito distorcer materialmente o comportamento de uma pessoa ou grupo, resultando em uma decisão que a pessoa ou grupo não teria tomado de outra forma.

Exploração Nociva de Vulnerabilidades Artigo 5(1)(b)

O Artigo 5(1)(b) proíbe o uso de IA para explorar vulnerabilidades relacionadas à idade, deficiência ou condições socioeconômicas com o objetivo ou efeito de distorcer materialmente o comportamento dessa pessoa.

Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O sistema de IA deve explorar vulnerabilidades devido à idade, deficiência ou situações socioeconômicas.

Pontuação Social Artigo 5(1)(c)

O Artigo 5(1)(c) proíbe o uso de IA para categorizar indivíduos com base em seu comportamento social, pessoal ou profissional, ou características pessoais, quando isso resulta em tratamento injustificado ou prejudicial.

Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O sistema de IA deve ser destinado ou usado para a avaliação ou classificação de pessoas naturais ou grupos de pessoas ao longo de um determinado período de tempo.

Previsão de Ofensas Criminais Artigo 5(1)(d)

O Artigo 5(1)(d) proíbe sistemas de IA que avaliam a probabilidade de cometer ofensas, baseando-se exclusivamente em perfis automatizados ou características pessoais.

Condições Cumulativas: A prática deve constituir a “colocação no mercado”, a “colocação em serviço” ou o “uso” de um sistema de IA. O sistema de IA deve fazer avaliações de risco que avaliem ou prevejam o risco de uma pessoa natural cometer uma ofensa.

Resumo da Linha do Tempo de Implementação da Lei de IA

Até agosto de 2025: As obrigações entram em vigor para provedores de modelos de IA de propósito geral. Os Estados-Membros devem implementar regras sobre penalidades e outras medidas de aplicação.

Até agosto de 2026: Início das obrigações de conformidade para sistemas de IA de alto risco.

Até agosto de 2027: As obrigações de conformidade para sistemas de IA de alto risco cobertos pelo Artigo 6(1) entram em vigor.

More Insights

Fluxos de Trabalho de IA Responsáveis para Pesquisa em UX

A pesquisa de UX é tão forte quanto as decisões humanas que a orientam, e decisões equivocadas podem distorcer os resultados. Com a chegada da IA, é fascinante observar como ela pode acelerar e...

A evolução da IA Agente no setor bancário

A IA agentiva está revolucionando o setor bancário ao automatizar processos complexos e melhorar a experiência do cliente. No entanto, a transparência e a responsabilidade permanecem desafios...

Caminhos para a Governança de IA no ASEAN: Avanços e Desafios

A Associação das Nações do Sudeste Asiático (ASEAN) adota uma abordagem amigável à inovação em inteligência artificial (IA), visando se tornar uma economia digital totalmente integrada. No entanto, os...

O Papel da Inteligência Artificial na Segurança Pública

As agências de aplicação da lei estão cada vez mais utilizando a inteligência artificial (IA) para aprimorar suas funções, especialmente com capacidades de policiamento preditivo. O mercado global de...

Quênia lidera acordo histórico da ONU sobre governança da IA

O Quênia conquistou uma grande vitória diplomática após todos os 193 Estados-Membros das Nações Unidas concordarem unanimemente em estabelecer duas instituições inovadoras para governar a inteligência...