EC atualiza a Lei de IA e proíbe sistemas de risco inaceitável

Atualizações da EC sobre a Lei de IA: Proibição de Sistemas com ‘Risco Inaceitável’

A Comissão Europeia (EC) recentemente atualizou a Lei de Inteligência Artificial (IA), estabelecendo novas diretrizes que proíbem o uso de práticas de IA cuja avaliação de risco seja considerada “inaceitável”.

Níveis de Risco Definidos pela Lei de IA

A Lei de IA da União Europeia (UE), inicialmente apresentada em 2023, estabelece um quadro regulatório e legal comum para o desenvolvimento e aplicação de IA. O documento original foi proposto pela EC em abril de 2021 e aprovado pelo Parlamento Europeu em maio de 2024.

Agora, a EC definiu quatro níveis de risco para sistemas de IA: risco inaceitável, risco alto, risco limitado e risco mínimo.

Proibições Relacionadas ao Risco Inaceitável

Os sistemas de IA classificados como de risco inaceitável, que representam uma ameaça clara à segurança, aos direitos e ao sustento das pessoas, estão agora banidos na UE. Exemplos incluem:

  • Classificação social
  • Raspagem de dados de internet ou CCTV para bancos de dados de reconhecimento facial
  • Manipulação e exploração baseadas em IA que prejudicam vulnerabilidades

Monitoramento de Sistemas de Alto Risco

Embora não proibidos, a EC irá monitorar sistemas de IA categorizados como de risco alto. Esses incluem aplicações que, embora criadas de boa-fé, podem levar a consequências devastadoras se algo der errado. Exemplos incluem:

  • Componentes de segurança em infraestruturas críticas que, se falharem, podem colocar em risco a vida e a saúde dos cidadãos, como no setor de transporte;
  • Soluções de IA usadas em instituições educacionais que podem determinar o acesso à educação e a trajetória profissional de um indivíduo, como a pontuação de exames;
  • Componentes de segurança de produtos assistidos por robô, como cirurgias robóticas;
  • Uso de IA em aplicações de policiamento que podem interferir nos direitos fundamentais das pessoas, como a avaliação de evidências.

Antes que um sistema de IA de risco alto possa ser colocado no mercado, ele deve passar por uma avaliação de conformidade e cumprir todos os requisitos da Lei de IA. O sistema deve ser registrado em um banco de dados e deve ostentar o Marcado de Conformidade Europeia (CE), que regula produtos vendidos na Área Econômica Europeia (EEE) desde 1985.

Consequências da Não Conformidade

A aplicação da lei será supervisionada por reguladores nacionais, e as empresas que não estiverem em conformidade enfrentarão pesadas penalidades financeiras, que podem ultrapassar €35 milhões, dependendo da receita anual global. Além disso, aquelas que praticarem IA proibida podem ser banidas de operar na UE.

Para a maioria dos desenvolvedores de IA na região, no entanto, essas medidas não serão necessárias. A EC indica que a maioria dos sistemas de IA atualmente utilizados na UE apresentam risco mínimo ou nenhum risco.

A EC declarou: “A Lei de IA garante que os europeus possam confiar no que a IA tem a oferecer. Embora a maioria dos sistemas de IA apresente risco limitado a nenhum risco e possa contribuir para resolver muitos desafios sociais, certos sistemas de IA criam riscos que devemos abordar para evitar resultados indesejáveis.”

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...