A Revolução do AI Act: Novas Regras em Vigor

A Lei de IA: Regulamentação Marcante em Vigor

A Lei de IA entrou em vigor em 1º de agosto de 2024, estabelecendo um dos marcos regulatórios mais abrangentes para a inteligência artificial até o momento. Em 4 de fevereiro de 2025, a Comissão Europeia publicou Diretrizes sobre práticas de IA proibidas, definidas pela referida lei.

Importância do Ato de Ação de IA

O Ato de Ação de IA ocorreu em Paris nos dias 10 e 11 de fevereiro de 2025, reunindo líderes de estados, organizações internacionais e CEOs. O evento abordou questões cruciais sobre a regulamentação versus a inovação no campo da IA. O debate teve a participação de quase 100 países e mais de 1.000 representantes do setor privado e da sociedade civil.

O evento destacou a questão: a inovação supera a regulamentação? Muitos especialistas argumentam que ignorar os riscos inerentes à IA não necessariamente acelera a inovação. Na verdade, os desafios atuais na Europa estão mais relacionados à fragmentação do mercado e à falta de capital de risco.

Sistema de Risco em Quatro Níveis

A Lei de IA adota um sistema de risco em quatro níveis. O nível mais alto, “risco inaceitável”, abrange sistemas de IA que representam uma ameaça clara à segurança social. Oito práticas estão incluídas nesse nível:

  • Manipulação e engano prejudiciais baseados em IA
  • Exploração de vulnerabilidades
  • Classificação social
  • Avaliação de risco de ofensas criminais
  • Coleta não direcionada de dados da internet para reconhecimento facial
  • Reconhecimento emocional em ambientes de trabalho e instituições educacionais
  • Categoria biométrica para deduzir características protegidas
  • Identificação biométrica remota em tempo real para fins de aplicação da lei em espaços públicos

As disposições para este nível entraram em vigor em 2 de fevereiro de 2025, resultando na proibição de tais sistemas, com multas de até 35 milhões de euros ou 7% da receita anual global, o que for maior, em caso de não conformidade.

Nível de Alto Risco

O próximo nível, “alto risco”, inclui casos de uso de IA que podem representar sérios riscos à saúde, segurança ou direitos fundamentais. Exemplos incluem:

  • IA em infraestruturas críticas (ex: transporte)
  • Soluções de IA utilizadas em instituições educacionais que determinam o acesso à educação
  • Componentes de segurança de produtos baseados em IA (ex: cirurgia assistida por robô)

Esses sistemas não serão banidos, mas deverão cumprir obrigações legais antes de serem colocados no mercado, incluindo avaliação e mitigação de riscos.

Risco Mínimo ou Nenhum

O nível de “risco mínimo ou nenhum” implica obrigações de transparência mais leves, como garantir que os usuários finais saibam que estão interagindo com IA, em casos práticos como chatbots e deepfakes. A legislação também enfatiza a explicabilidade, exigindo que as empresas de IA compartilhem informações sobre por que um sistema de IA fez uma determinada previsão.

Reações e Desafios

Durante o Ato de Ação de IA, o impacto da nova orientação foi discutido. Os EUA criticaram a regulamentação europeia e alertaram contra a cooperação com a China. Tanto os EUA quanto o Reino Unido se recusaram a assinar a declaração da cúpula sobre IA “inclusiva”, frustrando esperanças de uma abordagem unificada para a regulamentação da tecnologia.

Startups como a OpenAI expressaram preocupações de que a Lei de IA possa atrasar o desenvolvimento comercial de IA na Europa.

Iniciativas Futuras

A cúpula ocorreu em um momento de mudanças rápidas, com a startup chinesa DeepSeek desafiando os EUA com o lançamento do modelo de peso aberto R1. Outra empresa, a francesa Mistral AI, lançou recentemente seu modelo Le Chat e anunciou parcerias com a agência nacional de emprego na França e empresas de defesa europeias.

A iniciativa InvestAI, com um investimento de 200 bilhões de euros, visa financiar quatro gigafábricas de IA para treinar grandes modelos de IA, parte de uma estratégia mais ampla para fomentar o desenvolvimento colaborativo de modelos avançados de IA na UE.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...