Atualizações da EC sobre a Lei de IA: Proibição de Sistemas com ‘Risco Inaceitável’
A Comissão Europeia (EC) recentemente atualizou a Lei de Inteligência Artificial (IA), estabelecendo novas diretrizes que proíbem o uso de práticas de IA cuja avaliação de risco seja considerada “inaceitável”.
Níveis de Risco Definidos pela Lei de IA
A Lei de IA da União Europeia (UE), inicialmente apresentada em 2023, estabelece um quadro regulatório e legal comum para o desenvolvimento e aplicação de IA. O documento original foi proposto pela EC em abril de 2021 e aprovado pelo Parlamento Europeu em maio de 2024.
Agora, a EC definiu quatro níveis de risco para sistemas de IA: risco inaceitável, risco alto, risco limitado e risco mínimo.
Proibições Relacionadas ao Risco Inaceitável
Os sistemas de IA classificados como de risco inaceitável, que representam uma ameaça clara à segurança, aos direitos e ao sustento das pessoas, estão agora banidos na UE. Exemplos incluem:
- Classificação social
- Raspagem de dados de internet ou CCTV para bancos de dados de reconhecimento facial
- Manipulação e exploração baseadas em IA que prejudicam vulnerabilidades
Monitoramento de Sistemas de Alto Risco
Embora não proibidos, a EC irá monitorar sistemas de IA categorizados como de risco alto. Esses incluem aplicações que, embora criadas de boa-fé, podem levar a consequências devastadoras se algo der errado. Exemplos incluem:
- Componentes de segurança em infraestruturas críticas que, se falharem, podem colocar em risco a vida e a saúde dos cidadãos, como no setor de transporte;
- Soluções de IA usadas em instituições educacionais que podem determinar o acesso à educação e a trajetória profissional de um indivíduo, como a pontuação de exames;
- Componentes de segurança de produtos assistidos por robô, como cirurgias robóticas;
- Uso de IA em aplicações de policiamento que podem interferir nos direitos fundamentais das pessoas, como a avaliação de evidências.
Antes que um sistema de IA de risco alto possa ser colocado no mercado, ele deve passar por uma avaliação de conformidade e cumprir todos os requisitos da Lei de IA. O sistema deve ser registrado em um banco de dados e deve ostentar o Marcado de Conformidade Europeia (CE), que regula produtos vendidos na Área Econômica Europeia (EEE) desde 1985.
Consequências da Não Conformidade
A aplicação da lei será supervisionada por reguladores nacionais, e as empresas que não estiverem em conformidade enfrentarão pesadas penalidades financeiras, que podem ultrapassar €35 milhões, dependendo da receita anual global. Além disso, aquelas que praticarem IA proibida podem ser banidas de operar na UE.
Para a maioria dos desenvolvedores de IA na região, no entanto, essas medidas não serão necessárias. A EC indica que a maioria dos sistemas de IA atualmente utilizados na UE apresentam risco mínimo ou nenhum risco.
A EC declarou: “A Lei de IA garante que os europeus possam confiar no que a IA tem a oferecer. Embora a maioria dos sistemas de IA apresente risco limitado a nenhum risco e possa contribuir para resolver muitos desafios sociais, certos sistemas de IA criam riscos que devemos abordar para evitar resultados indesejáveis.”