Diretrizes da UE para Modelos de IA com Riscos Sistêmicos

Modelos de IA com Riscos Sistêmicos e Conformidade com as Regras da UE

No dia 18 de julho de 2025, a Comissão Europeia divulgou diretrizes para ajudar modelos de Inteligência Artificial (IA) que apresentam riscos sistêmicos a cumprir a regulamentação da União Europeia sobre IA, conhecida como AI Act.

Objetivo das Diretrizes

A iniciativa visa responder às críticas de algumas empresas sobre o AI Act e o ônus regulatório associado, proporcionando mais clareza para os negócios que enfrentam multas que podem variar de 7,5 milhões de euros (aproximadamente 8,7 milhões de dólares) ou 1,5% do faturamento global até 35 milhões de euros ou 7% do faturamento global por violações.

Aplicação do AI Act

O AI Act, que entrou em vigor no ano anterior, começará a se aplicar em 2 de agosto de 2026 para modelos de IA com riscos sistêmicos e para modelos de fundação, como os desenvolvidos por empresas como Google, OpenAI, Meta Platforms, Anthropic e Mistral.

As empresas têm até 2 de agosto de 2026 para se adequar à legislação.

Definição de Modelos de IA com Risco Sistêmico

A Comissão Europeia define modelos de IA com risco sistêmico como aqueles com capacidades computacionais muito avançadas que podem ter um impacto significativo na saúde pública, segurança, direitos fundamentais ou na sociedade.

Obrigações para Modelos de IA

Os primeiros modelos a serem avaliados deverão realizar as seguintes atividades:

  • Realizar avaliações de modelo;
  • Avaliar e mitigar riscos;
  • Conduzir testes adversariais;
  • Reportar incidentes graves à Comissão;
  • Assegurar proteção cibernética adequada contra roubo e uso indevido.

Transparência para Modelos de Uso Geral

Os modelos de IA de uso geral (GPAI) ou modelos de fundação estarão sujeitos a requisitos de transparência, que incluem:

  • Elaboração de documentação técnica;
  • Adoção de políticas de direitos autorais;
  • Fornecimento de resumos detalhados sobre o conteúdo utilizado para o treinamento do algoritmo.

Conclusão

Com as diretrizes divulgadas, a Comissão Europeia busca apoiar a aplicação suave e eficaz do AI Act, garantindo que as empresas de tecnologia se adaptem às novas regras que visam mitigar riscos associados ao uso de IA.

É fundamental que as empresas entendam a importância de uma conformidade adequada, não apenas para evitar penalidades, mas também para promover um uso seguro e responsável da Inteligência Artificial.

More Insights

Vigilância Inteligente: Segurança em Tempos de Privacidade

A vigilância impulsionada por IA aumenta a segurança, mas apresenta riscos de viés e erosão das liberdades civis. Os desafios regulatórios são diversos, variando desde a proibição de reconhecimento...

A certificação como chave para uma IA confiável e sustentável

A certificação está se tornando uma vantagem competitiva na adoção de IA, conforme regulamentos como o Ato de IA da União Europeia entram em vigor. As empresas que demonstram conformidade e governança...

Inteligência Artificial Explicável: Confiabilidade em Tempos Modernos

A Inteligência Artificial Explicável (XAI) é essencial para construir confiança e garantir transparência em áreas críticas como saúde e finanças. Regulamentações agora exigem explicações claras das...

Fluxos de Trabalho de IA Responsáveis para Pesquisa em UX

A pesquisa de UX é tão forte quanto as decisões humanas que a orientam, e decisões equivocadas podem distorcer os resultados. Com a chegada da IA, é fascinante observar como ela pode acelerar e...

A evolução da IA Agente no setor bancário

A IA agentiva está revolucionando o setor bancário ao automatizar processos complexos e melhorar a experiência do cliente. No entanto, a transparência e a responsabilidade permanecem desafios...