Diretrizes da UE sobre Práticas de IA Proibidas

Diretrizes da Comissão Europeia sobre Práticas de IA Proibidas sob a Lei de IA

A Comissão Europeia publicou um conjunto de diretrizes sobre as práticas de inteligência artificial (IA) que são consideradas inaceitáveis devido aos riscos que apresentam aos direitos e valores fundamentais. Este documento abrangente de 135 páginas visa fornecer às empresas uma compreensão clara de como a Comissão interpreta e define as práticas proibidas de IA.

Contexto

No dia 2 de fevereiro de 2025, as disposições gerais da Lei de IA, incluindo o Artigo 5, que estabelece as regras sobre práticas de IA proibidas, entraram em vigor. O Artigo 5 proíbe práticas como técnicas manipulativas ou enganosas, raspagem de dados faciais não direcionada e sistemas exploratórios que visam grupos vulneráveis. Além disso, a Lei de IA exige que as empresas implementem a alfabetização em IA entre sua força de trabalho.

Diretrizes sobre Práticas de IA Proibidas

A Comissão começou a cumprir sua obrigação de emitir diretrizes para a implementação da Lei de IA ao publicar as seguintes diretrizes:

  • Diretrizes sobre práticas de IA proibidas (4 de fevereiro de 2025);
  • Diretrizes sobre a definição de um sistema de IA sob a Lei de IA (6 de fevereiro de 2025).

Embora sejam não vinculativas, essas diretrizes oferecem explicações legais e exemplos práticos para ajudar as partes interessadas a entender e cumprir a Lei de IA.

Quais práticas de IA são proibidas?

As práticas explicitamente listadas no Artigo 5(1) da Lei de IA são as únicas proibidas. As práticas proibidas incluem:

  1. Manipulação e engano prejudiciais: Sistemas de IA que utilizam técnicas subliminares ou manipulativas para distorcer comportamentos, causando dano significativo.
  2. Exploração prejudicial de vulnerabilidades: Sistemas de IA que exploram vulnerabilidades relacionadas a idade, deficiência ou situações sociais específicas.
  3. Avaliação social: Sistemas de IA que avaliam indivíduos com base em comportamento social, resultando em tratamento desfavorável.
  4. Avaliação de risco criminal individual: Sistemas de IA que preveem ou avaliam o risco de indivíduos cometerem crimes com base em traços de personalidade.
  5. Raspagem não direcionada para desenvolvimento de bancos de dados de reconhecimento facial: Sistemas de IA que criam bancos de dados de reconhecimento facial por meio de raspagem de imagens da internet.
  6. Reconhecimento emocional: Sistemas de IA que inferem emoções em locais de trabalho, exceto por razões médicas ou de segurança.
  7. Categorizações biométricas: Sistemas de IA que categorizam indivíduos com base em dados biométricos.
  8. Identificação biométrica remota: Sistemas de IA para identificação biométrica em tempo real em espaços públicos.

Exclusões da Lei de IA

O Artigo 2 da Lei de IA prevê várias exclusões gerais, como sistemas de IA lançados sob licenças gratuitas e de código aberto, a menos que sejam comercializados como sistemas de IA de alto risco.

Escopo Material e Pessoal

O escopo material da Lei de IA refere-se a práticas que envolvem o “colocação no mercado”, “colocação em serviço” ou “uso” de um sistema de IA. O escopo pessoal abrange os operadores responsáveis, incluindo fornecedores e implementadores.

Os fornecedores são entidades que desenvolvem sistemas de IA e os colocam no mercado da União Europeia. Já os implementadores são aqueles que utilizam os sistemas de IA sob sua autoridade.

Próximos Passos

As empresas devem avaliar cuidadosamente, caso a caso, se a aplicação específica de IA é considerada proibida sob o Artigo 5 da Lei de IA. As responsabilidades dos fornecedores e implementadores variam de acordo com seus papéis e controle sobre o design, desenvolvimento e uso do sistema.

Essas diretrizes são uma ferramenta importante para garantir que o desenvolvimento e uso de sistemas de IA estejam em conformidade com a legislação europeia.

More Insights

Engenheiros de IA e Ética: Construindo Sistemas Inteligentes e Responsáveis

A Inteligência Artificial (IA) explodiu em capacidade, com avanços em aprendizado de máquina, processamento de linguagem natural e visão computacional. Este crescimento coloca os engenheiros de IA na...

A Imperativa da IA Responsável

A Dra. Anna Zeiter, vice-presidente de privacidade e responsabilidade de dados da eBay, afirma que a IA responsável não é apenas uma palavra da moda, mas uma imperativa fundamental. Ela destaca a...

Preservação de Dados em Inteligência Artificial Generativa

Ferramentas de inteligência artificial generativa (GAI) levantam preocupações legais, como privacidade de dados e segurança, e podem ser consideradas informações únicas que devem ser preservadas para...

Inteligência Artificial Responsável: Princípios e Benefícios

A inteligência artificial (IA) está mudando a maneira como vivemos e trabalhamos, tornando essencial seu uso responsável. Isso significa criar e utilizar sistemas de IA que sejam justos, transparentes...

Adotando IA Confiável para o Sucesso Empresarial

Nos últimos anos, a inteligência artificial (IA) se tornou uma ferramenta essencial para a tomada de decisões críticas nos negócios. No entanto, para operar efetivamente com a IA, as organizações...

Inteligência Artificial e o Futuro do Jogo: Desafios e Oportunidades

A aplicação da Inteligência Artificial (IA) na indústria do jogo apresenta oportunidades de eficiência, mas também traz crescentes expectativas regulatórias e riscos de responsabilidade. A...