Regulamentações de Conformidade em IA da UE para Modelos de Alto Risco e Fundamentos
Em 22 de julho de 2025, a Comissão Europeia divulgou diretrizes essenciais para auxiliar as empresas na conformidade com a nova legislação sobre inteligência artificial (IA), que entrará em vigor em 2 de agosto. Esta legislação se aplica a modelos de IA com riscos sistêmicos e modelos de uso geral.
Objetivo da Legislação
A legislação visa garantir que empresas que desenvolvem modelos de IA, que podem impactar a saúde pública, a segurança e os direitos fundamentais, operem de forma responsável. Entre as empresas que precisam se adequar a essas normas estão grandes nomes como Google, OpenAI, Meta, Anthropic e Mistral.
Principais Exigências
De acordo com a Lei de IA, as empresas devem:
- Avaliar seus modelos de IA;
- Testar para potenciais ameaças;
- Reportar incidentes graves;
- Assegurar proteções de cibersegurança.
Além disso, modelos de uso geral ou fundamentais também devem cumprir normas de transparência, que incluem a elaboração de documentos técnicos, adoção de práticas de direitos autorais e a resumir as fontes de dados de treinamento.
Consequências da Não Conformidade
A Lei de IA foi aprovada no ano anterior, e as empresas têm até 2 de agosto de 2025 para atender a todos os requisitos. Violações das normas podem resultar em multas de até €35 milhões ou 7% do faturamento global da empresa, dependendo da natureza da infração.
Conclusão
A divulgação dessas diretrizes pelo chefe de tecnologia da UE, Henna Virkkunen, ressalta a importância do cumprimento eficaz das regras estabelecidas, promovendo um ambiente de desenvolvimento tecnológico responsável e seguro.