Diretrizes da Comissão da UE sobre Práticas de IA Proibidas

Diretrizes da Comissão Europeia sobre Práticas de IA Proibidas sob a Lei de IA da UE

No dia 4 de fevereiro de 2025, a Comissão Europeia (CE) emitiu um rascunho de diretrizes que esclarecem as práticas de IA proibidas sob a Lei de Inteligência Artificial (IA) da União Europeia (UE). Embora não sejam vinculativas, as diretrizes oferecem esclarecimentos valiosos e exemplos práticos para ajudar as empresas a navegar suas obrigações sob a Lei de IA. A CE aprovou as diretrizes, mas ainda precisa adotá-las formalmente, o que é esperado em breve.

Contexto

As disposições da Lei de IA sobre práticas de IA proibidas tornaram-se efetivas em 2 de fevereiro de 2025, juntamente com outras disposições sobre literacia em IA. O Artigo 5 da Lei de IA proíbe certas práticas de IA que são consideradas de risco inaceitável, como sistemas de IA que manipulam ou exploram indivíduos, realizam pontuação social ou inferem emoções dos indivíduos no local de trabalho ou na educação.

Práticas de IA Proibidas

Abaixo está uma visão geral das principais proibições sob a Lei de IA, conforme interpretadas pelas diretrizes:

  1. Pontuação Social. A Lei de IA proíbe a oferta ou o uso de sistemas de IA que avaliam comportamentos sociais de indivíduos para determinar seu tratamento em um contexto não relacionado. Por exemplo, sistemas de IA usados para recomendar o preço de um prêmio de seguro ou avaliar a solvência das pessoas poderiam ser considerados pontuação social, se a avaliação for baseada em características pessoais não relacionadas.
  2. Manipulação e Exploração. A Lei de IA proíbe a oferta ou o uso de sistemas de IA que utilizam técnicas subliminares ou exploram vulnerabilidades individuais para influenciar seu comportamento e causar danos. Isso inclui, por exemplo, o uso de IA em jogos para incentivar o jogo excessivo e o uso compulsivo explorando as vulnerabilidades das crianças.
  3. Reconhecimento Facial e Identificação Biométrica. A Lei de IA proíbe a prática de construir bancos de dados de reconhecimento facial através da coleta indiscriminada de imagens da internet ou de imagens de CCTV. As diretrizes esclarecem que a coleta de dados que não sejam imagens faciais não é proibida.
  4. Reconhecimento de Emoções em Locais de Trabalho e Instituições Educacionais. O uso de IA para reconhecer emoções em ambientes de trabalho e educacionais é geralmente proibido. Exemplos incluem um call center usando webcams e reconhecimento de voz para rastrear emoções dos funcionários.
  5. Categorização Biométrica. A categorização de indivíduos com base em atributos sensíveis, como raça, opiniões políticas ou orientação sexual usando dados biométricos, é proibida. Por exemplo, é proibido oferecer ou usar sistemas de IA que categorizam pessoas com base em tais atributos sensíveis.

Responsabilidades para Fornecedores de IA

As diretrizes estipulam que os fornecedores de sistemas de IA são responsáveis por não liberar um sistema que seja “razoavelmente provável” de ser usado para um propósito proibido, além de adotar salvaguardas para evitar abusos previsíveis. Isso significa que os fornecedores devem antecipar potenciais usos de seus sistemas de IA e implementar salvaguardas adequadas.

Próximos Passos

As empresas que se envolverem em práticas de IA proibidas poderão enfrentar multas significativas, que podem chegar a 35 milhões de euros ou sete por cento de seu faturamento anual global, o que for maior. As primeiras ações de execução são esperadas para o segundo semestre de 2025, à medida que os países da UE finalizam seus regimes de execução.

Empresas que oferecem ou usam IA na UE devem rever seus sistemas de IA e termos à luz dessas diretrizes e abordar quaisquer lacunas de conformidade no primeiro semestre de 2025.

More Insights

Engenheiros de IA e Ética: Construindo Sistemas Inteligentes e Responsáveis

A Inteligência Artificial (IA) explodiu em capacidade, com avanços em aprendizado de máquina, processamento de linguagem natural e visão computacional. Este crescimento coloca os engenheiros de IA na...

A Imperativa da IA Responsável

A Dra. Anna Zeiter, vice-presidente de privacidade e responsabilidade de dados da eBay, afirma que a IA responsável não é apenas uma palavra da moda, mas uma imperativa fundamental. Ela destaca a...

Preservação de Dados em Inteligência Artificial Generativa

Ferramentas de inteligência artificial generativa (GAI) levantam preocupações legais, como privacidade de dados e segurança, e podem ser consideradas informações únicas que devem ser preservadas para...

Inteligência Artificial Responsável: Princípios e Benefícios

A inteligência artificial (IA) está mudando a maneira como vivemos e trabalhamos, tornando essencial seu uso responsável. Isso significa criar e utilizar sistemas de IA que sejam justos, transparentes...

Adotando IA Confiável para o Sucesso Empresarial

Nos últimos anos, a inteligência artificial (IA) se tornou uma ferramenta essencial para a tomada de decisões críticas nos negócios. No entanto, para operar efetivamente com a IA, as organizações...

Inteligência Artificial e o Futuro do Jogo: Desafios e Oportunidades

A aplicação da Inteligência Artificial (IA) na indústria do jogo apresenta oportunidades de eficiência, mas também traz crescentes expectativas regulatórias e riscos de responsabilidade. A...