Diretrizes da Comissão da UE sobre Práticas de IA Proibidas

Diretrizes da Comissão Europeia sobre Práticas de IA Proibidas sob a Lei de IA da UE

No dia 4 de fevereiro de 2025, a Comissão Europeia (CE) emitiu um rascunho de diretrizes que esclarecem as práticas de IA proibidas sob a Lei de Inteligência Artificial (IA) da União Europeia (UE). Embora não sejam vinculativas, as diretrizes oferecem esclarecimentos valiosos e exemplos práticos para ajudar as empresas a navegar suas obrigações sob a Lei de IA. A CE aprovou as diretrizes, mas ainda precisa adotá-las formalmente, o que é esperado em breve.

Contexto

As disposições da Lei de IA sobre práticas de IA proibidas tornaram-se efetivas em 2 de fevereiro de 2025, juntamente com outras disposições sobre literacia em IA. O Artigo 5 da Lei de IA proíbe certas práticas de IA que são consideradas de risco inaceitável, como sistemas de IA que manipulam ou exploram indivíduos, realizam pontuação social ou inferem emoções dos indivíduos no local de trabalho ou na educação.

Práticas de IA Proibidas

Abaixo está uma visão geral das principais proibições sob a Lei de IA, conforme interpretadas pelas diretrizes:

  1. Pontuação Social. A Lei de IA proíbe a oferta ou o uso de sistemas de IA que avaliam comportamentos sociais de indivíduos para determinar seu tratamento em um contexto não relacionado. Por exemplo, sistemas de IA usados para recomendar o preço de um prêmio de seguro ou avaliar a solvência das pessoas poderiam ser considerados pontuação social, se a avaliação for baseada em características pessoais não relacionadas.
  2. Manipulação e Exploração. A Lei de IA proíbe a oferta ou o uso de sistemas de IA que utilizam técnicas subliminares ou exploram vulnerabilidades individuais para influenciar seu comportamento e causar danos. Isso inclui, por exemplo, o uso de IA em jogos para incentivar o jogo excessivo e o uso compulsivo explorando as vulnerabilidades das crianças.
  3. Reconhecimento Facial e Identificação Biométrica. A Lei de IA proíbe a prática de construir bancos de dados de reconhecimento facial através da coleta indiscriminada de imagens da internet ou de imagens de CCTV. As diretrizes esclarecem que a coleta de dados que não sejam imagens faciais não é proibida.
  4. Reconhecimento de Emoções em Locais de Trabalho e Instituições Educacionais. O uso de IA para reconhecer emoções em ambientes de trabalho e educacionais é geralmente proibido. Exemplos incluem um call center usando webcams e reconhecimento de voz para rastrear emoções dos funcionários.
  5. Categorização Biométrica. A categorização de indivíduos com base em atributos sensíveis, como raça, opiniões políticas ou orientação sexual usando dados biométricos, é proibida. Por exemplo, é proibido oferecer ou usar sistemas de IA que categorizam pessoas com base em tais atributos sensíveis.

Responsabilidades para Fornecedores de IA

As diretrizes estipulam que os fornecedores de sistemas de IA são responsáveis por não liberar um sistema que seja “razoavelmente provável” de ser usado para um propósito proibido, além de adotar salvaguardas para evitar abusos previsíveis. Isso significa que os fornecedores devem antecipar potenciais usos de seus sistemas de IA e implementar salvaguardas adequadas.

Próximos Passos

As empresas que se envolverem em práticas de IA proibidas poderão enfrentar multas significativas, que podem chegar a 35 milhões de euros ou sete por cento de seu faturamento anual global, o que for maior. As primeiras ações de execução são esperadas para o segundo semestre de 2025, à medida que os países da UE finalizam seus regimes de execução.

Empresas que oferecem ou usam IA na UE devem rever seus sistemas de IA e termos à luz dessas diretrizes e abordar quaisquer lacunas de conformidade no primeiro semestre de 2025.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...