Diretrizes da UE sobre Práticas de IA Proibidas

Diretrizes da Comissão Europeia sobre Práticas de IA Proibidas sob a Lei de IA

A Comissão Europeia publicou um conjunto de diretrizes sobre as práticas de inteligência artificial (IA) que são consideradas inaceitáveis devido aos riscos que apresentam aos direitos e valores fundamentais. Este documento abrangente de 135 páginas visa fornecer às empresas uma compreensão clara de como a Comissão interpreta e define as práticas proibidas de IA.

Contexto

No dia 2 de fevereiro de 2025, as disposições gerais da Lei de IA, incluindo o Artigo 5, que estabelece as regras sobre práticas de IA proibidas, entraram em vigor. O Artigo 5 proíbe práticas como técnicas manipulativas ou enganosas, raspagem de dados faciais não direcionada e sistemas exploratórios que visam grupos vulneráveis. Além disso, a Lei de IA exige que as empresas implementem a alfabetização em IA entre sua força de trabalho.

Diretrizes sobre Práticas de IA Proibidas

A Comissão começou a cumprir sua obrigação de emitir diretrizes para a implementação da Lei de IA ao publicar as seguintes diretrizes:

  • Diretrizes sobre práticas de IA proibidas (4 de fevereiro de 2025);
  • Diretrizes sobre a definição de um sistema de IA sob a Lei de IA (6 de fevereiro de 2025).

Embora sejam não vinculativas, essas diretrizes oferecem explicações legais e exemplos práticos para ajudar as partes interessadas a entender e cumprir a Lei de IA.

Quais práticas de IA são proibidas?

As práticas explicitamente listadas no Artigo 5(1) da Lei de IA são as únicas proibidas. As práticas proibidas incluem:

  1. Manipulação e engano prejudiciais: Sistemas de IA que utilizam técnicas subliminares ou manipulativas para distorcer comportamentos, causando dano significativo.
  2. Exploração prejudicial de vulnerabilidades: Sistemas de IA que exploram vulnerabilidades relacionadas a idade, deficiência ou situações sociais específicas.
  3. Avaliação social: Sistemas de IA que avaliam indivíduos com base em comportamento social, resultando em tratamento desfavorável.
  4. Avaliação de risco criminal individual: Sistemas de IA que preveem ou avaliam o risco de indivíduos cometerem crimes com base em traços de personalidade.
  5. Raspagem não direcionada para desenvolvimento de bancos de dados de reconhecimento facial: Sistemas de IA que criam bancos de dados de reconhecimento facial por meio de raspagem de imagens da internet.
  6. Reconhecimento emocional: Sistemas de IA que inferem emoções em locais de trabalho, exceto por razões médicas ou de segurança.
  7. Categorizações biométricas: Sistemas de IA que categorizam indivíduos com base em dados biométricos.
  8. Identificação biométrica remota: Sistemas de IA para identificação biométrica em tempo real em espaços públicos.

Exclusões da Lei de IA

O Artigo 2 da Lei de IA prevê várias exclusões gerais, como sistemas de IA lançados sob licenças gratuitas e de código aberto, a menos que sejam comercializados como sistemas de IA de alto risco.

Escopo Material e Pessoal

O escopo material da Lei de IA refere-se a práticas que envolvem o “colocação no mercado”, “colocação em serviço” ou “uso” de um sistema de IA. O escopo pessoal abrange os operadores responsáveis, incluindo fornecedores e implementadores.

Os fornecedores são entidades que desenvolvem sistemas de IA e os colocam no mercado da União Europeia. Já os implementadores são aqueles que utilizam os sistemas de IA sob sua autoridade.

Próximos Passos

As empresas devem avaliar cuidadosamente, caso a caso, se a aplicação específica de IA é considerada proibida sob o Artigo 5 da Lei de IA. As responsabilidades dos fornecedores e implementadores variam de acordo com seus papéis e controle sobre o design, desenvolvimento e uso do sistema.

Essas diretrizes são uma ferramenta importante para garantir que o desenvolvimento e uso de sistemas de IA estejam em conformidade com a legislação europeia.

More Insights

Colaboração Crucial entre Privacidade e TI na Adoção de IA

A adoção de IA está rapidamente transformando as dinâmicas entre profissionais de privacidade e TI, exigindo uma colaboração mais próxima para evitar riscos. Especialistas destacam a importância de...

DeepSeek: A Revolução da Governança Social na China

O DeepSeek é um novo modelo de linguagem que está sendo utilizado na China para guiar a opinião pública e garantir a estabilidade social, enquanto propaga a linha do Partido Comunista. Embora tenha...

Carolina do Norte Nomeia I-Sah Hsieh como Líder em Governança de IA

A Carolina do Norte nomeou I-Sah Hsieh como o primeiro líder de governança e política de IA do estado, com o objetivo de promover o avanço ético da tecnologia. Hsieh, com 25 anos de experiência na...

Caminhos para a Governança da IA no Fórum de Xangai 2025

Especialistas de todo o mundo discutiram os desafios de governança decorrentes do avanço rápido da inteligência artificial durante o subfórum do Fórum de Xangai 2025. Eles enfatizaram a importância de...

Construindo uma Malásia Preparada para IA: A Importância da Governança de Dados

A inteligência artificial (IA) está revolucionando indústrias em todo o mundo, e a Malásia não é exceção. Para garantir uma adoção ética e segura da IA, é crucial estabelecer estruturas robustas de...

Universidades como Protagonistas no Futuro da IA

A inteligência artificial se tornou a nova linha de falha geopolítica, e as universidades estão no centro dessa questão. Elas devem navegar nas complexas políticas nacionais de IA para proteger sua...