Regras da UE para Conformidade com IA em Modelos de Alto Risco

Regulamentações de Conformidade em IA da UE para Modelos de Alto Risco e Fundamentos

Em 22 de julho de 2025, a Comissão Europeia divulgou diretrizes essenciais para auxiliar as empresas na conformidade com a nova legislação sobre inteligência artificial (IA), que entrará em vigor em 2 de agosto. Esta legislação se aplica a modelos de IA com riscos sistêmicos e modelos de uso geral.

Objetivo da Legislação

A legislação visa garantir que empresas que desenvolvem modelos de IA, que podem impactar a saúde pública, a segurança e os direitos fundamentais, operem de forma responsável. Entre as empresas que precisam se adequar a essas normas estão grandes nomes como Google, OpenAI, Meta, Anthropic e Mistral.

Principais Exigências

De acordo com a Lei de IA, as empresas devem:

  • Avaliar seus modelos de IA;
  • Testar para potenciais ameaças;
  • Reportar incidentes graves;
  • Assegurar proteções de cibersegurança.

Além disso, modelos de uso geral ou fundamentais também devem cumprir normas de transparência, que incluem a elaboração de documentos técnicos, adoção de práticas de direitos autorais e a resumir as fontes de dados de treinamento.

Consequências da Não Conformidade

A Lei de IA foi aprovada no ano anterior, e as empresas têm até 2 de agosto de 2025 para atender a todos os requisitos. Violações das normas podem resultar em multas de até €35 milhões ou 7% do faturamento global da empresa, dependendo da natureza da infração.

Conclusão

A divulgação dessas diretrizes pelo chefe de tecnologia da UE, Henna Virkkunen, ressalta a importância do cumprimento eficaz das regras estabelecidas, promovendo um ambiente de desenvolvimento tecnológico responsável e seguro.

More Insights

Agentes de IA: Um Novo Pesadelo de Segurança para Empresas

A proliferação da IA nas aplicações empresariais está introduzindo um novo tipo complexo de tráfego de rede: agentes de IA autônomos fazendo chamadas API. Essa "trafegação agente" representa uma...