Modelos de IA com Riscos Sistêmicos e Conformidade com as Regras da UE
No dia 18 de julho de 2025, a Comissão Europeia divulgou diretrizes para ajudar modelos de Inteligência Artificial (IA) que apresentam riscos sistêmicos a cumprir a regulamentação da União Europeia sobre IA, conhecida como AI Act.
Objetivo das Diretrizes
A iniciativa visa responder às críticas de algumas empresas sobre o AI Act e o ônus regulatório associado, proporcionando mais clareza para os negócios que enfrentam multas que podem variar de 7,5 milhões de euros (aproximadamente 8,7 milhões de dólares) ou 1,5% do faturamento global até 35 milhões de euros ou 7% do faturamento global por violações.
Aplicação do AI Act
O AI Act, que entrou em vigor no ano anterior, começará a se aplicar em 2 de agosto de 2026 para modelos de IA com riscos sistêmicos e para modelos de fundação, como os desenvolvidos por empresas como Google, OpenAI, Meta Platforms, Anthropic e Mistral.
As empresas têm até 2 de agosto de 2026 para se adequar à legislação.
Definição de Modelos de IA com Risco Sistêmico
A Comissão Europeia define modelos de IA com risco sistêmico como aqueles com capacidades computacionais muito avançadas que podem ter um impacto significativo na saúde pública, segurança, direitos fundamentais ou na sociedade.
Obrigações para Modelos de IA
Os primeiros modelos a serem avaliados deverão realizar as seguintes atividades:
- Realizar avaliações de modelo;
- Avaliar e mitigar riscos;
- Conduzir testes adversariais;
- Reportar incidentes graves à Comissão;
- Assegurar proteção cibernética adequada contra roubo e uso indevido.
Transparência para Modelos de Uso Geral
Os modelos de IA de uso geral (GPAI) ou modelos de fundação estarão sujeitos a requisitos de transparência, que incluem:
- Elaboração de documentação técnica;
- Adoção de políticas de direitos autorais;
- Fornecimento de resumos detalhados sobre o conteúdo utilizado para o treinamento do algoritmo.
Conclusão
Com as diretrizes divulgadas, a Comissão Europeia busca apoiar a aplicação suave e eficaz do AI Act, garantindo que as empresas de tecnologia se adaptem às novas regras que visam mitigar riscos associados ao uso de IA.
É fundamental que as empresas entendam a importância de uma conformidade adequada, não apenas para evitar penalidades, mas também para promover um uso seguro e responsável da Inteligência Artificial.