Diretrizes da Comissão Europeia sobre Relatórios de Incidentes Graves na IA

EU AI Act: A Comissão Europeia Emite Diretrizes para Relato de Incidentes

Em 26 de setembro de 2025, a Comissão Europeia (CE) publicou um rascunho de diretrizes sobre os requisitos de relato de incidentes sérios para sistemas de IA de alto risco, conforme o EU AI Act. Para as organizações que desenvolvem ou implantam sistemas de IA que possam se enquadrar no escopo de sistemas de IA de alto risco, entender essas novas obrigações de relato é essencial para o planejamento de conformidade.

Pontos Principais

  • A Comissão publicou um modelo de relato de incidentes e um documento de diretrizes em 26 de setembro de 2025.
  • Os provedores de sistemas de IA de alto risco serão obrigados a relatar “incidentes sérios” às autoridades nacionais.
  • Os prazos de relato variam de dois (2) a quinze (15) dias, dependendo da gravidade e tipo do incidente.
  • A consulta pública está aberta até 7 de novembro de 2025.

Compreendendo o Quadro de Relato de Incidentes

O Artigo 73 do EU AI Act estabelece um sistema de relato em camadas para incidentes sérios envolvendo sistemas de IA de alto risco. Embora esses requisitos não entrem em vigor até agosto de 2026, as diretrizes recém-publicadas oferecem valiosos insights sobre as expectativas da Comissão.

O quadro de relato serve a múltiplos propósitos: criar um sistema de alerta precoce para padrões prejudiciais, estabelecer uma responsabilidade clara para provedores e usuários, possibilitar medidas corretivas oportunas e fomentar a transparência para construir a confiança pública nas tecnologias de IA.

O Que Qualifica Como um “Incidente Sério”?

De acordo com o Artigo 3(49) da Lei, um incidente sério ocorre quando um incidente ou mau funcionamento de um sistema de IA leva direta ou indiretamente a:

  1. Morte de uma pessoa ou dano sério à saúde de uma pessoa;
  2. Interrupção grave e irreversível de infraestruturas críticas;
  3. Violação das obrigações de direitos fundamentais sob a lei da UE;
  4. Dano sério à propriedade ou ao meio ambiente.

Um aspecto importante nas diretrizes é a ênfase na causação direta e indireta. Um sistema de IA que fornece uma análise médica incorreta que leva a danos ao paciente por meio de decisões subsequentes de médicos seria classificado como um incidente sério indireto. Isso significa que as organizações devem considerar os efeitos subsequentes em suas estruturas de gerenciamento de riscos.

Interseção com Regimes de Relato Existentes

Para clientes que gerenciam múltiplos frameworks de conformidade, as diretrizes oferecem esclarecimento bem-vindo sobre as obrigações de relato sobrepostas. Sistemas de IA de alto risco já sujeitos a obrigações de relato equivalentes sob outras leis da UE, como NIS2, DORA ou CER, geralmente precisam apenas relatar violações de direitos fundamentais sob a Lei de IA.

Isso reflete a tentativa da Comissão de minimizar os ônus de relato duplicados, embora a implementação prática ainda exija uma cuidadosa coordenação entre as equipes de governança de IA, jurídicas e de conformidade.

Implicações Práticas para as Organizações

As organizações devem começar a mapear seus sistemas de IA de acordo com os critérios de alto risco e preparar processos internos para a detecção, investigação e relato de incidentes. Considerações chave incluem:

  • Estabelecer protocolos claros de resposta a incidentes;
  • Implementar sistemas de monitoramento para detectar potenciais incidentes sérios;
  • Desenvolver procedimentos de investigação que preservem evidências;
  • Criar equipes multifuncionais para gerenciar obrigações de relato;
  • Atualizar avaliações de risco para considerar cenários de incidentes sérios.

Próximos Passos

É encorajado que os clientes participem da consulta pública, que permanece aberta até 7 de novembro de 2025. A Comissão está particularmente buscando feedback e exemplos sobre a interação com outros regimes de relato.

As organizações também devem começar a revisar suas estruturas de governança de IA para garantir que possam implementar efetivamente esses requisitos de relato quando se tornarem aplicáveis em agosto de 2026.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...