Zoom sur la Loi Européenne sur l’IA – Obligations pour les systèmes d’IA à risque limité
La Loi Européenne sur l’Intelligence Artificielle (IA) illustre une approche réglementaire avancée basée sur les risques. Une de ses caractéristiques distinctives est la classification détaillée des différents niveaux de risque associés aux technologies d’IA.
Chaque niveau de risque est associé à un ensemble de conditions spécifiques. Cet article se penche sur les exigences relatives à une autre catégorie de risque : les systèmes d’IA à risque limité, tels que définis par la Loi sur l’IA, qui bénéficient d’une réglementation allégée.
Systèmes d’IA à risque limité
Certaines systèmes d’IA destinés à interagir avec des individus ou à générer du contenu peuvent poser des risques spécifiques d’imitation ou de tromperie. Ces systèmes sont classifiés comme systèmes d’IA à risque limité sous la Loi Européenne sur l’IA. Ils sont peu susceptibles de causer des dommages significatifs ou de violer des droits fondamentaux.
Les systèmes d’IA à risque limité incluent ceux qui :
- interagissent directement avec les individus (comme les chatbots et les assistants numériques) ;
- génèrent du contenu audio, image, vidéo ou texte synthétique (comme ChatGPT) ;
- génèrent ou manipulent du contenu audio, image ou vidéo entraînant un deep fake ;
- génèrent ou manipulent du texte destiné à informer le public sur des questions d’intérêt public ;
- sont des systèmes de reconnaissance émotionnelle ou de catégorisation biométrique.
Selon les législateurs européens, l’utilisation de systèmes d’IA à risque limité doit, dans certaines circonstances, être soumise à des obligations de transparence spécifiques.
Obligations des fournisseurs
Selon les Articles 50(1) et 50(2) de la Loi sur l’IA, les fournisseurs de systèmes d’IA présentant des risques de transparence doivent respecter les exigences suivantes :
- Chatbots et assistants numériques : Les fournisseurs doivent s’assurer que les systèmes d’IA destinés à interagir directement avec les individus sont conçus pour informer ces derniers qu’ils interagissent avec un système d’IA.
- Contenu synthétique généré par l’IA : Les fournisseurs de systèmes d’IA, y compris ceux qui génèrent du contenu audio, image, vidéo ou texte synthétique, doivent garantir que les sorties de ces systèmes sont marquées de manière lisible par machine et détectables comme étant artificiellement générées ou manipulées.
Ces exigences doivent être satisfaites dans la mesure du techniquement faisable, en tenant compte des caractéristiques spécifiques et des limitations des différents types de contenu.
Obligations des déployeurs
Les Articles 50(3) et 50(4) de la Loi sur l’IA spécifient les obligations de transparence pour les déployeurs de systèmes d’IA à risque limité :
- Deep fakes : Les déployeurs de systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo entraînant des deep fakes doivent divulguer que le contenu a été généré ou manipulé artificiellement.
- Texte généré ou manipulé par l’IA : Les entités déployant des systèmes d’IA pour générer ou manipuler du texte destiné à une diffusion publique doivent divulguer que le contenu a été généré ou manipulé artificiellement.
- Systèmes de reconnaissance émotionnelle ou de catégorisation biométrique : Les déployeurs de tels systèmes doivent informer les individus exposés à ces systèmes de leur fonctionnement.
Moment et format de livraison des avis requis
Les informations concernant les systèmes d’IA à risque limité doivent être fournies de manière claire et distincte lors de la première interaction de l’utilisateur avec le système.
Rôle de la Commission Européenne
La Commission Européenne examinera et pourrait modifier la liste des systèmes d’IA à risque limité tous les quatre ans. Elle facilitera également la création de codes de pratique pour mettre en œuvre les obligations de détection et d’étiquetage.
Interplay avec les obligations de transparence sous le RGPD et la Loi sur les Services Numériques
Les exigences de transparence imposées aux fournisseurs et déployeurs de certains systèmes d’IA par la Loi sur l’IA sont également cruciales pour la mise en œuvre efficace de la Loi sur les Services Numériques.
Sanctions et amendes
Les autorités compétentes nationales veilleront à la conformité avec les exigences de transparence. Le non-respect peut entraîner des amendes administratives pouvant atteindre 15 millions d’euros ou 3 % du chiffre d’affaires mondial total de l’opérateur pour l’année financière précédente, selon le montant le plus élevé.
Calendrier
Les exigences de transparence pour les systèmes d’IA à risque limité entreront en vigueur le 2 août 2026.