A Revolução do AI Act: Novas Regras em Vigor

A Lei de IA: Regulamentação Marcante em Vigor

A Lei de IA entrou em vigor em 1º de agosto de 2024, estabelecendo um dos marcos regulatórios mais abrangentes para a inteligência artificial até o momento. Em 4 de fevereiro de 2025, a Comissão Europeia publicou Diretrizes sobre práticas de IA proibidas, definidas pela referida lei.

Importância do Ato de Ação de IA

O Ato de Ação de IA ocorreu em Paris nos dias 10 e 11 de fevereiro de 2025, reunindo líderes de estados, organizações internacionais e CEOs. O evento abordou questões cruciais sobre a regulamentação versus a inovação no campo da IA. O debate teve a participação de quase 100 países e mais de 1.000 representantes do setor privado e da sociedade civil.

O evento destacou a questão: a inovação supera a regulamentação? Muitos especialistas argumentam que ignorar os riscos inerentes à IA não necessariamente acelera a inovação. Na verdade, os desafios atuais na Europa estão mais relacionados à fragmentação do mercado e à falta de capital de risco.

Sistema de Risco em Quatro Níveis

A Lei de IA adota um sistema de risco em quatro níveis. O nível mais alto, “risco inaceitável”, abrange sistemas de IA que representam uma ameaça clara à segurança social. Oito práticas estão incluídas nesse nível:

  • Manipulação e engano prejudiciais baseados em IA
  • Exploração de vulnerabilidades
  • Classificação social
  • Avaliação de risco de ofensas criminais
  • Coleta não direcionada de dados da internet para reconhecimento facial
  • Reconhecimento emocional em ambientes de trabalho e instituições educacionais
  • Categoria biométrica para deduzir características protegidas
  • Identificação biométrica remota em tempo real para fins de aplicação da lei em espaços públicos

As disposições para este nível entraram em vigor em 2 de fevereiro de 2025, resultando na proibição de tais sistemas, com multas de até 35 milhões de euros ou 7% da receita anual global, o que for maior, em caso de não conformidade.

Nível de Alto Risco

O próximo nível, “alto risco”, inclui casos de uso de IA que podem representar sérios riscos à saúde, segurança ou direitos fundamentais. Exemplos incluem:

  • IA em infraestruturas críticas (ex: transporte)
  • Soluções de IA utilizadas em instituições educacionais que determinam o acesso à educação
  • Componentes de segurança de produtos baseados em IA (ex: cirurgia assistida por robô)

Esses sistemas não serão banidos, mas deverão cumprir obrigações legais antes de serem colocados no mercado, incluindo avaliação e mitigação de riscos.

Risco Mínimo ou Nenhum

O nível de “risco mínimo ou nenhum” implica obrigações de transparência mais leves, como garantir que os usuários finais saibam que estão interagindo com IA, em casos práticos como chatbots e deepfakes. A legislação também enfatiza a explicabilidade, exigindo que as empresas de IA compartilhem informações sobre por que um sistema de IA fez uma determinada previsão.

Reações e Desafios

Durante o Ato de Ação de IA, o impacto da nova orientação foi discutido. Os EUA criticaram a regulamentação europeia e alertaram contra a cooperação com a China. Tanto os EUA quanto o Reino Unido se recusaram a assinar a declaração da cúpula sobre IA “inclusiva”, frustrando esperanças de uma abordagem unificada para a regulamentação da tecnologia.

Startups como a OpenAI expressaram preocupações de que a Lei de IA possa atrasar o desenvolvimento comercial de IA na Europa.

Iniciativas Futuras

A cúpula ocorreu em um momento de mudanças rápidas, com a startup chinesa DeepSeek desafiando os EUA com o lançamento do modelo de peso aberto R1. Outra empresa, a francesa Mistral AI, lançou recentemente seu modelo Le Chat e anunciou parcerias com a agência nacional de emprego na França e empresas de defesa europeias.

A iniciativa InvestAI, com um investimento de 200 bilhões de euros, visa financiar quatro gigafábricas de IA para treinar grandes modelos de IA, parte de uma estratégia mais ampla para fomentar o desenvolvimento colaborativo de modelos avançados de IA na UE.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...