Obligations des systèmes d’IA à risque limité selon la réglementation européenne

A traffic light indicating the regulation and guidance for AI usage.

Zoom sur la Loi Européenne sur l’IA – Obligations pour les systèmes d’IA à risque limité

La Loi Européenne sur l’Intelligence Artificielle (IA) illustre une approche réglementaire avancée basée sur les risques. Une de ses caractéristiques distinctives est la classification détaillée des différents niveaux de risque associés aux technologies d’IA.

Chaque niveau de risque est associé à un ensemble de conditions spécifiques. Cet article se penche sur les exigences relatives à une autre catégorie de risque : les systèmes d’IA à risque limité, tels que définis par la Loi sur l’IA, qui bénéficient d’une réglementation allégée.

Systèmes d’IA à risque limité

Certaines systèmes d’IA destinés à interagir avec des individus ou à générer du contenu peuvent poser des risques spécifiques d’imitation ou de tromperie. Ces systèmes sont classifiés comme systèmes d’IA à risque limité sous la Loi Européenne sur l’IA. Ils sont peu susceptibles de causer des dommages significatifs ou de violer des droits fondamentaux.

Les systèmes d’IA à risque limité incluent ceux qui :

  1. interagissent directement avec les individus (comme les chatbots et les assistants numériques) ;
  2. génèrent du contenu audio, image, vidéo ou texte synthétique (comme ChatGPT) ;
  3. génèrent ou manipulent du contenu audio, image ou vidéo entraînant un deep fake ;
  4. génèrent ou manipulent du texte destiné à informer le public sur des questions d’intérêt public ;
  5. sont des systèmes de reconnaissance émotionnelle ou de catégorisation biométrique.

Selon les législateurs européens, l’utilisation de systèmes d’IA à risque limité doit, dans certaines circonstances, être soumise à des obligations de transparence spécifiques.

Obligations des fournisseurs

Selon les Articles 50(1) et 50(2) de la Loi sur l’IA, les fournisseurs de systèmes d’IA présentant des risques de transparence doivent respecter les exigences suivantes :

  1. Chatbots et assistants numériques : Les fournisseurs doivent s’assurer que les systèmes d’IA destinés à interagir directement avec les individus sont conçus pour informer ces derniers qu’ils interagissent avec un système d’IA.
  2. Contenu synthétique généré par l’IA : Les fournisseurs de systèmes d’IA, y compris ceux qui génèrent du contenu audio, image, vidéo ou texte synthétique, doivent garantir que les sorties de ces systèmes sont marquées de manière lisible par machine et détectables comme étant artificiellement générées ou manipulées.

Ces exigences doivent être satisfaites dans la mesure du techniquement faisable, en tenant compte des caractéristiques spécifiques et des limitations des différents types de contenu.

Obligations des déployeurs

Les Articles 50(3) et 50(4) de la Loi sur l’IA spécifient les obligations de transparence pour les déployeurs de systèmes d’IA à risque limité :

  1. Deep fakes : Les déployeurs de systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo entraînant des deep fakes doivent divulguer que le contenu a été généré ou manipulé artificiellement.
  2. Texte généré ou manipulé par l’IA : Les entités déployant des systèmes d’IA pour générer ou manipuler du texte destiné à une diffusion publique doivent divulguer que le contenu a été généré ou manipulé artificiellement.
  3. Systèmes de reconnaissance émotionnelle ou de catégorisation biométrique : Les déployeurs de tels systèmes doivent informer les individus exposés à ces systèmes de leur fonctionnement.

Moment et format de livraison des avis requis

Les informations concernant les systèmes d’IA à risque limité doivent être fournies de manière claire et distincte lors de la première interaction de l’utilisateur avec le système.

Rôle de la Commission Européenne

La Commission Européenne examinera et pourrait modifier la liste des systèmes d’IA à risque limité tous les quatre ans. Elle facilitera également la création de codes de pratique pour mettre en œuvre les obligations de détection et d’étiquetage.

Interplay avec les obligations de transparence sous le RGPD et la Loi sur les Services Numériques

Les exigences de transparence imposées aux fournisseurs et déployeurs de certains systèmes d’IA par la Loi sur l’IA sont également cruciales pour la mise en œuvre efficace de la Loi sur les Services Numériques.

Sanctions et amendes

Les autorités compétentes nationales veilleront à la conformité avec les exigences de transparence. Le non-respect peut entraîner des amendes administratives pouvant atteindre 15 millions d’euros ou 3 % du chiffre d’affaires mondial total de l’opérateur pour l’année financière précédente, selon le montant le plus élevé.

Calendrier

Les exigences de transparence pour les systèmes d’IA à risque limité entreront en vigueur le 2 août 2026.

Articles

Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

Le Chartered Insurance Institute (CII) a appelé à des cadres de responsabilité clairs et à une stratégie de compétences à l'échelle du secteur pour guider l'utilisation de l'intelligence artificielle...

L’essor de la réglementation de l’IA dans la santé en APAC

La réglementation de l'intelligence artificielle (IA) dans la région Asie-Pacifique est encore naissante et repose principalement sur des cadres réglementaires existants. Les techniques d'IA, telles...

Nouveaux défis législatifs pour l’IA à New York

Au début de 2025, New York a rejoint d'autres États pour réglementer l'intelligence artificielle (IA) au niveau de l'État, en introduisant le projet de loi NY AI Act. Ce projet de loi vise à prévenir...

Gérer les Risques de l’Intelligence Artificielle

L'article discute des risques associés aux systèmes d'intelligence artificielle et de l'importance d'une gouvernance responsable. Il souligne que les modèles d'IA doivent être gérés efficacement pour...

Comprendre les enjeux de la loi sur l’intelligence artificielle dans l’UE

L'Union européenne a introduit la loi sur l'intelligence artificielle (AI Act), une réglementation phare conçue pour gérer les risques et les opportunités des technologies d'IA. Cet article fournit un...

La Loi Fondamentale sur l’IA en Corée : Un Nouveau Cadre Réglementaire

La Corée du Sud se positionne en tête de la réglementation de l'IA en Asie avec l'adoption de la loi sur le développement de l'intelligence artificielle et l'établissement de la confiance, ou la loi...

Défis réglementaires de l’IA et résilience opérationnelle

Le règlement sur l'IA de l'UE et la DORA imposent une nouvelle complexité aux entités financières, nécessitant une approche basée sur les risques pour évaluer l'impact financier. Il est essentiel de...

Réguler l’IA : Défis et Perspectives Transatlantiques

L'intelligence artificielle (IA) est devenue l'une des forces technologiques les plus conséquentes de notre époque, capable de redéfinir les économies et les sociétés. Les gouvernements démocratiques...

Révolutionner l’IA en Europe : Vers des Gigafactories Innovantes

La Commission européenne souhaite réduire les obstacles au déploiement de l'intelligence artificielle (IA) afin de mieux préparer les entreprises européennes à la concurrence mondiale. Dans sa...