A Lei de IA: Regulamentação Marcante em Vigor
A Lei de IA entrou em vigor em 1º de agosto de 2024, estabelecendo um dos marcos regulatórios mais abrangentes para a inteligência artificial até o momento. Em 4 de fevereiro de 2025, a Comissão Europeia publicou Diretrizes sobre práticas de IA proibidas, definidas pela referida lei.
Importância do Ato de Ação de IA
O Ato de Ação de IA ocorreu em Paris nos dias 10 e 11 de fevereiro de 2025, reunindo líderes de estados, organizações internacionais e CEOs. O evento abordou questões cruciais sobre a regulamentação versus a inovação no campo da IA. O debate teve a participação de quase 100 países e mais de 1.000 representantes do setor privado e da sociedade civil.
O evento destacou a questão: a inovação supera a regulamentação? Muitos especialistas argumentam que ignorar os riscos inerentes à IA não necessariamente acelera a inovação. Na verdade, os desafios atuais na Europa estão mais relacionados à fragmentação do mercado e à falta de capital de risco.
Sistema de Risco em Quatro Níveis
A Lei de IA adota um sistema de risco em quatro níveis. O nível mais alto, “risco inaceitável”, abrange sistemas de IA que representam uma ameaça clara à segurança social. Oito práticas estão incluídas nesse nível:
- Manipulação e engano prejudiciais baseados em IA
- Exploração de vulnerabilidades
- Classificação social
- Avaliação de risco de ofensas criminais
- Coleta não direcionada de dados da internet para reconhecimento facial
- Reconhecimento emocional em ambientes de trabalho e instituições educacionais
- Categoria biométrica para deduzir características protegidas
- Identificação biométrica remota em tempo real para fins de aplicação da lei em espaços públicos
As disposições para este nível entraram em vigor em 2 de fevereiro de 2025, resultando na proibição de tais sistemas, com multas de até 35 milhões de euros ou 7% da receita anual global, o que for maior, em caso de não conformidade.
Nível de Alto Risco
O próximo nível, “alto risco”, inclui casos de uso de IA que podem representar sérios riscos à saúde, segurança ou direitos fundamentais. Exemplos incluem:
- IA em infraestruturas críticas (ex: transporte)
- Soluções de IA utilizadas em instituições educacionais que determinam o acesso à educação
- Componentes de segurança de produtos baseados em IA (ex: cirurgia assistida por robô)
Esses sistemas não serão banidos, mas deverão cumprir obrigações legais antes de serem colocados no mercado, incluindo avaliação e mitigação de riscos.
Risco Mínimo ou Nenhum
O nível de “risco mínimo ou nenhum” implica obrigações de transparência mais leves, como garantir que os usuários finais saibam que estão interagindo com IA, em casos práticos como chatbots e deepfakes. A legislação também enfatiza a explicabilidade, exigindo que as empresas de IA compartilhem informações sobre por que um sistema de IA fez uma determinada previsão.
Reações e Desafios
Durante o Ato de Ação de IA, o impacto da nova orientação foi discutido. Os EUA criticaram a regulamentação europeia e alertaram contra a cooperação com a China. Tanto os EUA quanto o Reino Unido se recusaram a assinar a declaração da cúpula sobre IA “inclusiva”, frustrando esperanças de uma abordagem unificada para a regulamentação da tecnologia.
Startups como a OpenAI expressaram preocupações de que a Lei de IA possa atrasar o desenvolvimento comercial de IA na Europa.
Iniciativas Futuras
A cúpula ocorreu em um momento de mudanças rápidas, com a startup chinesa DeepSeek desafiando os EUA com o lançamento do modelo de peso aberto R1. Outra empresa, a francesa Mistral AI, lançou recentemente seu modelo Le Chat e anunciou parcerias com a agência nacional de emprego na França e empresas de defesa europeias.
A iniciativa InvestAI, com um investimento de 200 bilhões de euros, visa financiar quatro gigafábricas de IA para treinar grandes modelos de IA, parte de uma estratégia mais ampla para fomentar o desenvolvimento colaborativo de modelos avançados de IA na UE.