Diretrizes da UE sobre Práticas de IA Proibidas

Diretrizes da Comissão Europeia sobre Práticas de IA Proibidas sob a Lei de IA

A Comissão Europeia publicou um conjunto de diretrizes sobre as práticas de inteligência artificial (IA) que são consideradas inaceitáveis devido aos riscos que apresentam aos direitos e valores fundamentais. Este documento abrangente de 135 páginas visa fornecer às empresas uma compreensão clara de como a Comissão interpreta e define as práticas proibidas de IA.

Contexto

No dia 2 de fevereiro de 2025, as disposições gerais da Lei de IA, incluindo o Artigo 5, que estabelece as regras sobre práticas de IA proibidas, entraram em vigor. O Artigo 5 proíbe práticas como técnicas manipulativas ou enganosas, raspagem de dados faciais não direcionada e sistemas exploratórios que visam grupos vulneráveis. Além disso, a Lei de IA exige que as empresas implementem a alfabetização em IA entre sua força de trabalho.

Diretrizes sobre Práticas de IA Proibidas

A Comissão começou a cumprir sua obrigação de emitir diretrizes para a implementação da Lei de IA ao publicar as seguintes diretrizes:

  • Diretrizes sobre práticas de IA proibidas (4 de fevereiro de 2025);
  • Diretrizes sobre a definição de um sistema de IA sob a Lei de IA (6 de fevereiro de 2025).

Embora sejam não vinculativas, essas diretrizes oferecem explicações legais e exemplos práticos para ajudar as partes interessadas a entender e cumprir a Lei de IA.

Quais práticas de IA são proibidas?

As práticas explicitamente listadas no Artigo 5(1) da Lei de IA são as únicas proibidas. As práticas proibidas incluem:

  1. Manipulação e engano prejudiciais: Sistemas de IA que utilizam técnicas subliminares ou manipulativas para distorcer comportamentos, causando dano significativo.
  2. Exploração prejudicial de vulnerabilidades: Sistemas de IA que exploram vulnerabilidades relacionadas a idade, deficiência ou situações sociais específicas.
  3. Avaliação social: Sistemas de IA que avaliam indivíduos com base em comportamento social, resultando em tratamento desfavorável.
  4. Avaliação de risco criminal individual: Sistemas de IA que preveem ou avaliam o risco de indivíduos cometerem crimes com base em traços de personalidade.
  5. Raspagem não direcionada para desenvolvimento de bancos de dados de reconhecimento facial: Sistemas de IA que criam bancos de dados de reconhecimento facial por meio de raspagem de imagens da internet.
  6. Reconhecimento emocional: Sistemas de IA que inferem emoções em locais de trabalho, exceto por razões médicas ou de segurança.
  7. Categorizações biométricas: Sistemas de IA que categorizam indivíduos com base em dados biométricos.
  8. Identificação biométrica remota: Sistemas de IA para identificação biométrica em tempo real em espaços públicos.

Exclusões da Lei de IA

O Artigo 2 da Lei de IA prevê várias exclusões gerais, como sistemas de IA lançados sob licenças gratuitas e de código aberto, a menos que sejam comercializados como sistemas de IA de alto risco.

Escopo Material e Pessoal

O escopo material da Lei de IA refere-se a práticas que envolvem o “colocação no mercado”, “colocação em serviço” ou “uso” de um sistema de IA. O escopo pessoal abrange os operadores responsáveis, incluindo fornecedores e implementadores.

Os fornecedores são entidades que desenvolvem sistemas de IA e os colocam no mercado da União Europeia. Já os implementadores são aqueles que utilizam os sistemas de IA sob sua autoridade.

Próximos Passos

As empresas devem avaliar cuidadosamente, caso a caso, se a aplicação específica de IA é considerada proibida sob o Artigo 5 da Lei de IA. As responsabilidades dos fornecedores e implementadores variam de acordo com seus papéis e controle sobre o design, desenvolvimento e uso do sistema.

Essas diretrizes são uma ferramenta importante para garantir que o desenvolvimento e uso de sistemas de IA estejam em conformidade com a legislação europeia.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...