EC atualiza a Lei de IA e proíbe sistemas de risco inaceitável

Atualizações da EC sobre a Lei de IA: Proibição de Sistemas com ‘Risco Inaceitável’

A Comissão Europeia (EC) recentemente atualizou a Lei de Inteligência Artificial (IA), estabelecendo novas diretrizes que proíbem o uso de práticas de IA cuja avaliação de risco seja considerada “inaceitável”.

Níveis de Risco Definidos pela Lei de IA

A Lei de IA da União Europeia (UE), inicialmente apresentada em 2023, estabelece um quadro regulatório e legal comum para o desenvolvimento e aplicação de IA. O documento original foi proposto pela EC em abril de 2021 e aprovado pelo Parlamento Europeu em maio de 2024.

Agora, a EC definiu quatro níveis de risco para sistemas de IA: risco inaceitável, risco alto, risco limitado e risco mínimo.

Proibições Relacionadas ao Risco Inaceitável

Os sistemas de IA classificados como de risco inaceitável, que representam uma ameaça clara à segurança, aos direitos e ao sustento das pessoas, estão agora banidos na UE. Exemplos incluem:

  • Classificação social
  • Raspagem de dados de internet ou CCTV para bancos de dados de reconhecimento facial
  • Manipulação e exploração baseadas em IA que prejudicam vulnerabilidades

Monitoramento de Sistemas de Alto Risco

Embora não proibidos, a EC irá monitorar sistemas de IA categorizados como de risco alto. Esses incluem aplicações que, embora criadas de boa-fé, podem levar a consequências devastadoras se algo der errado. Exemplos incluem:

  • Componentes de segurança em infraestruturas críticas que, se falharem, podem colocar em risco a vida e a saúde dos cidadãos, como no setor de transporte;
  • Soluções de IA usadas em instituições educacionais que podem determinar o acesso à educação e a trajetória profissional de um indivíduo, como a pontuação de exames;
  • Componentes de segurança de produtos assistidos por robô, como cirurgias robóticas;
  • Uso de IA em aplicações de policiamento que podem interferir nos direitos fundamentais das pessoas, como a avaliação de evidências.

Antes que um sistema de IA de risco alto possa ser colocado no mercado, ele deve passar por uma avaliação de conformidade e cumprir todos os requisitos da Lei de IA. O sistema deve ser registrado em um banco de dados e deve ostentar o Marcado de Conformidade Europeia (CE), que regula produtos vendidos na Área Econômica Europeia (EEE) desde 1985.

Consequências da Não Conformidade

A aplicação da lei será supervisionada por reguladores nacionais, e as empresas que não estiverem em conformidade enfrentarão pesadas penalidades financeiras, que podem ultrapassar €35 milhões, dependendo da receita anual global. Além disso, aquelas que praticarem IA proibida podem ser banidas de operar na UE.

Para a maioria dos desenvolvedores de IA na região, no entanto, essas medidas não serão necessárias. A EC indica que a maioria dos sistemas de IA atualmente utilizados na UE apresentam risco mínimo ou nenhum risco.

A EC declarou: “A Lei de IA garante que os europeus possam confiar no que a IA tem a oferecer. Embora a maioria dos sistemas de IA apresente risco limitado a nenhum risco e possa contribuir para resolver muitos desafios sociais, certos sistemas de IA criam riscos que devemos abordar para evitar resultados indesejáveis.”

More Insights

Governança de IA: Protegendo Marcas na Era Digital

A governança de IA é um conjunto de processos, políticas e estruturas que garantem que os sistemas de IA sejam usados de maneira responsável, ética e eficaz. Para marcas e agências que implementam...

Agentes de IA: Potencial e Riscos Emergentes

As empresas estão adotando rapidamente agentes de IA — sistemas de IA generativa orientados a objetivos que atuam autonomamente para realizar tarefas. No entanto, à medida que os agentes de IA ganham...

Governança de IA no UAE: Avanços e Desafios

Especialistas afirmam que os Emirados Árabes Unidos estão vivenciando uma governança de IA institucionalizada. Essa abordagem visa garantir que a inteligência artificial seja implementada de maneira...

O que as Gigantes da Tecnologia Esperam do Plano de Ação de IA dos EUA

Gigantes da tecnologia, startups de IA e instituições financeiras estão influenciando o plano de ação da IA da Casa Branca, solicitando a unificação das regulamentações federais e estaduais de IA...