Diretrizes da UE para Modelos de IA com Riscos Sistêmicos

Modelos de IA com Riscos Sistêmicos e Conformidade com as Regras da UE

No dia 18 de julho de 2025, a Comissão Europeia divulgou diretrizes para ajudar modelos de Inteligência Artificial (IA) que apresentam riscos sistêmicos a cumprir a regulamentação da União Europeia sobre IA, conhecida como AI Act.

Objetivo das Diretrizes

A iniciativa visa responder às críticas de algumas empresas sobre o AI Act e o ônus regulatório associado, proporcionando mais clareza para os negócios que enfrentam multas que podem variar de 7,5 milhões de euros (aproximadamente 8,7 milhões de dólares) ou 1,5% do faturamento global até 35 milhões de euros ou 7% do faturamento global por violações.

Aplicação do AI Act

O AI Act, que entrou em vigor no ano anterior, começará a se aplicar em 2 de agosto de 2026 para modelos de IA com riscos sistêmicos e para modelos de fundação, como os desenvolvidos por empresas como Google, OpenAI, Meta Platforms, Anthropic e Mistral.

As empresas têm até 2 de agosto de 2026 para se adequar à legislação.

Definição de Modelos de IA com Risco Sistêmico

A Comissão Europeia define modelos de IA com risco sistêmico como aqueles com capacidades computacionais muito avançadas que podem ter um impacto significativo na saúde pública, segurança, direitos fundamentais ou na sociedade.

Obrigações para Modelos de IA

Os primeiros modelos a serem avaliados deverão realizar as seguintes atividades:

  • Realizar avaliações de modelo;
  • Avaliar e mitigar riscos;
  • Conduzir testes adversariais;
  • Reportar incidentes graves à Comissão;
  • Assegurar proteção cibernética adequada contra roubo e uso indevido.

Transparência para Modelos de Uso Geral

Os modelos de IA de uso geral (GPAI) ou modelos de fundação estarão sujeitos a requisitos de transparência, que incluem:

  • Elaboração de documentação técnica;
  • Adoção de políticas de direitos autorais;
  • Fornecimento de resumos detalhados sobre o conteúdo utilizado para o treinamento do algoritmo.

Conclusão

Com as diretrizes divulgadas, a Comissão Europeia busca apoiar a aplicação suave e eficaz do AI Act, garantindo que as empresas de tecnologia se adaptem às novas regras que visam mitigar riscos associados ao uso de IA.

É fundamental que as empresas entendam a importância de uma conformidade adequada, não apenas para evitar penalidades, mas também para promover um uso seguro e responsável da Inteligência Artificial.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...