Diretrizes da UE para Modelos de IA com Riscos Sistêmicos

Modelos de IA com Riscos Sistêmicos e Conformidade com as Regras da UE

No dia 18 de julho de 2025, a Comissão Europeia divulgou diretrizes para ajudar modelos de Inteligência Artificial (IA) que apresentam riscos sistêmicos a cumprir a regulamentação da União Europeia sobre IA, conhecida como AI Act.

Objetivo das Diretrizes

A iniciativa visa responder às críticas de algumas empresas sobre o AI Act e o ônus regulatório associado, proporcionando mais clareza para os negócios que enfrentam multas que podem variar de 7,5 milhões de euros (aproximadamente 8,7 milhões de dólares) ou 1,5% do faturamento global até 35 milhões de euros ou 7% do faturamento global por violações.

Aplicação do AI Act

O AI Act, que entrou em vigor no ano anterior, começará a se aplicar em 2 de agosto de 2026 para modelos de IA com riscos sistêmicos e para modelos de fundação, como os desenvolvidos por empresas como Google, OpenAI, Meta Platforms, Anthropic e Mistral.

As empresas têm até 2 de agosto de 2026 para se adequar à legislação.

Definição de Modelos de IA com Risco Sistêmico

A Comissão Europeia define modelos de IA com risco sistêmico como aqueles com capacidades computacionais muito avançadas que podem ter um impacto significativo na saúde pública, segurança, direitos fundamentais ou na sociedade.

Obrigações para Modelos de IA

Os primeiros modelos a serem avaliados deverão realizar as seguintes atividades:

  • Realizar avaliações de modelo;
  • Avaliar e mitigar riscos;
  • Conduzir testes adversariais;
  • Reportar incidentes graves à Comissão;
  • Assegurar proteção cibernética adequada contra roubo e uso indevido.

Transparência para Modelos de Uso Geral

Os modelos de IA de uso geral (GPAI) ou modelos de fundação estarão sujeitos a requisitos de transparência, que incluem:

  • Elaboração de documentação técnica;
  • Adoção de políticas de direitos autorais;
  • Fornecimento de resumos detalhados sobre o conteúdo utilizado para o treinamento do algoritmo.

Conclusão

Com as diretrizes divulgadas, a Comissão Europeia busca apoiar a aplicação suave e eficaz do AI Act, garantindo que as empresas de tecnologia se adaptem às novas regras que visam mitigar riscos associados ao uso de IA.

É fundamental que as empresas entendam a importância de uma conformidade adequada, não apenas para evitar penalidades, mas também para promover um uso seguro e responsável da Inteligência Artificial.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...