Nouveaux critères de signalement pour les incidents graves liés à l’IA en Europe

A digital shield

La Commission Européenne Publie des Lignes Directrices Draft pour les Incidents Graves d’IA sous la Loi sur l’IA de l’UE

Le 26 septembre 2025, la Commission Européenne a publié les ‘Lignes Directrices Draft Article 73 Loi sur l’IA – Rapport d’Incident’ (les Lignes Directrices). Ces lignes directrices visent à aider les fournisseurs et déployeurs de Systèmes d’IA à Haut Risque (tels que définis sous la Loi sur l’Intelligence Artificielle de l’UE) à se conformer à leurs obligations de surveillance post-commercialisation pour signaler les incidents graves et les violations généralisées des Systèmes d’IA à Haut Risque aux autorités nationales.

Objectifs des Lignes Directrices

Les Lignes Directrices visent à clarifier les définitions et les obligations de rapport en fournissant des explications, par exemple, sur la nature des obligations et sur quoi, quand et comment rapporter. Elles incluent également des exemples pratiques.

Définitions Clés et Obligations de Rapport

Les Lignes Directrices décomposent les composants des définitions clés, telles que ce qui constitue un incident grave (pour lequel des obligations de rapport s’appliquent). Elles examinent également les circonstances dans lesquelles un incident ou un dysfonctionnement du système d’IA cause directement ou indirectement, que ce soit utilisé conformément à ses objectifs prévus ou par une utilisation raisonnablement prévisible, la mort ou des dommages graves.

Par exemple, les Lignes Directrices précisent que le dommage grave d’une violation des droits fondamentaux inclut les droits protégés par la Charte des Droits Fondamentaux de l’UE. Cependant, il y a un focus sur les incidents graves, donc seules les violations qui interfèrent significativement avec les droits protégés par la Charte de l’UE à grande échelle sont reportables. Des exemples incluent :

  • L’IA discriminatoire dans le recrutement,
  • Le scoring de crédit qui exclut certaines catégories de personnes,
  • Ou l’identification biométrique qui identifie fréquemment mal des individus de certains milieux.

Gestion des Obligations de Rapport

Les Lignes Directrices clarifient également qu’un même événement peut déclencher des obligations de rapport sous différentes législations de l’UE. Elles détaillent comment la Loi sur l’IA prévoit de réduire le risque de chevauchement des obligations et de fatigue de rapport, en donnant des exemples de scénarios où un rapport sous la Loi sur l’IA peut être requis.

Par exemple, en vertu de la Directive sur la Résilience des Entités Critiques, les entités dans des secteurs essentiels (y compris l’énergie, l’eau, et l’infrastructure numérique) doivent signaler les incidents qui perturbent les services essentiels dans les 24 heures suivant l’incident. Selon la Loi sur l’IA, pour ces secteurs, seuls les incidents impliquant des violations des droits fondamentaux nécessitent un rapport supplémentaire.

De plus, sous la Digital Operational Resilience Act, les entités financières doivent signaler les incidents majeurs en matière de TIC et les menaces cybernétiques à l’aide de modèles standardisés. Pour les systèmes d’IA dans les services financiers, seuls les incidents impliquant des droits fondamentaux déclenchent un rapport supplémentaire selon la Loi sur l’IA.

Alignement avec les Normes Internationales

Les Lignes Directrices soulignent l’intention de l’UE d’aligner la surveillance des incidents d’IA avec les normes internationales, y compris le Surveillance des Incidents d’IA de l’Organisation de Coopération et de Développement Économiques (OCDE) et le Cadre Commun de Rapport.

Il est important de noter que les Lignes Directrices ne traitent pas des modèles d’IA à usage général avec des risques systémiques et des obligations de rapport associées (ces obligations relèvent de l’Article 55 de la Loi sur l’IA).

Publication d’un Modèle de Rapport d’Incident

La Commission Européenne a également publié un modèle de ‘Rapport d’Incident pour les Incidents Graves sous la Loi sur l’IA (Systèmes d’IA à Haut Risque)’ en parallèle des Lignes Directrices. Les Lignes Directrices et le Modèle de Rapport Draft sont disponibles en ligne, et les commentaires des parties prenantes peuvent être soumis jusqu’au 7 novembre 2025.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...