Diretrizes da UE para Modelos de IA com Riscos Sistêmicos

Modelos de IA com Riscos Sistêmicos e Conformidade com as Regras da UE

No dia 18 de julho de 2025, a Comissão Europeia divulgou diretrizes para ajudar modelos de Inteligência Artificial (IA) que apresentam riscos sistêmicos a cumprir a regulamentação da União Europeia sobre IA, conhecida como AI Act.

Objetivo das Diretrizes

A iniciativa visa responder às críticas de algumas empresas sobre o AI Act e o ônus regulatório associado, proporcionando mais clareza para os negócios que enfrentam multas que podem variar de 7,5 milhões de euros (aproximadamente 8,7 milhões de dólares) ou 1,5% do faturamento global até 35 milhões de euros ou 7% do faturamento global por violações.

Aplicação do AI Act

O AI Act, que entrou em vigor no ano anterior, começará a se aplicar em 2 de agosto de 2026 para modelos de IA com riscos sistêmicos e para modelos de fundação, como os desenvolvidos por empresas como Google, OpenAI, Meta Platforms, Anthropic e Mistral.

As empresas têm até 2 de agosto de 2026 para se adequar à legislação.

Definição de Modelos de IA com Risco Sistêmico

A Comissão Europeia define modelos de IA com risco sistêmico como aqueles com capacidades computacionais muito avançadas que podem ter um impacto significativo na saúde pública, segurança, direitos fundamentais ou na sociedade.

Obrigações para Modelos de IA

Os primeiros modelos a serem avaliados deverão realizar as seguintes atividades:

  • Realizar avaliações de modelo;
  • Avaliar e mitigar riscos;
  • Conduzir testes adversariais;
  • Reportar incidentes graves à Comissão;
  • Assegurar proteção cibernética adequada contra roubo e uso indevido.

Transparência para Modelos de Uso Geral

Os modelos de IA de uso geral (GPAI) ou modelos de fundação estarão sujeitos a requisitos de transparência, que incluem:

  • Elaboração de documentação técnica;
  • Adoção de políticas de direitos autorais;
  • Fornecimento de resumos detalhados sobre o conteúdo utilizado para o treinamento do algoritmo.

Conclusão

Com as diretrizes divulgadas, a Comissão Europeia busca apoiar a aplicação suave e eficaz do AI Act, garantindo que as empresas de tecnologia se adaptem às novas regras que visam mitigar riscos associados ao uso de IA.

É fundamental que as empresas entendam a importância de uma conformidade adequada, não apenas para evitar penalidades, mas também para promover um uso seguro e responsável da Inteligência Artificial.

More Insights

Plano de Ação de IA para Fortalecer Padrões Éticos

O próximo Plano de Ação de Tecnologia de IA da Malásia de 2026 a 2030 irá reforçar as salvaguardas éticas e os frameworks de governança relacionados ao uso da inteligência artificial. O Ministro...

Kerala: Pioneirismo em IA Ética e Educação

O estado do Kerala, no sul da Índia, está se destacando como um exemplo global de implementação ética da inteligência artificial (IA), especialmente na educação e serviços públicos. Com uma estratégia...

Estados Lideram na Regulação do Desenvolvimento de IA nos EUA

Os estados dos EUA estão começando a estabelecer suas próprias leis de regulamentação da inteligência artificial, após a remoção de uma proibição de 10 anos sobre essa ação. Essa mudança permite que...