Obligations des systèmes d’IA à risque limité selon la réglementation européenne

A traffic light indicating the regulation and guidance for AI usage.

Zoom sur la Loi Européenne sur l’IA – Obligations pour les systèmes d’IA à risque limité

La Loi Européenne sur l’Intelligence Artificielle (IA) illustre une approche réglementaire avancée basée sur les risques. Une de ses caractéristiques distinctives est la classification détaillée des différents niveaux de risque associés aux technologies d’IA.

Chaque niveau de risque est associé à un ensemble de conditions spécifiques. Cet article se penche sur les exigences relatives à une autre catégorie de risque : les systèmes d’IA à risque limité, tels que définis par la Loi sur l’IA, qui bénéficient d’une réglementation allégée.

Systèmes d’IA à risque limité

Certaines systèmes d’IA destinés à interagir avec des individus ou à générer du contenu peuvent poser des risques spécifiques d’imitation ou de tromperie. Ces systèmes sont classifiés comme systèmes d’IA à risque limité sous la Loi Européenne sur l’IA. Ils sont peu susceptibles de causer des dommages significatifs ou de violer des droits fondamentaux.

Les systèmes d’IA à risque limité incluent ceux qui :

  1. interagissent directement avec les individus (comme les chatbots et les assistants numériques) ;
  2. génèrent du contenu audio, image, vidéo ou texte synthétique (comme ChatGPT) ;
  3. génèrent ou manipulent du contenu audio, image ou vidéo entraînant un deep fake ;
  4. génèrent ou manipulent du texte destiné à informer le public sur des questions d’intérêt public ;
  5. sont des systèmes de reconnaissance émotionnelle ou de catégorisation biométrique.

Selon les législateurs européens, l’utilisation de systèmes d’IA à risque limité doit, dans certaines circonstances, être soumise à des obligations de transparence spécifiques.

Obligations des fournisseurs

Selon les Articles 50(1) et 50(2) de la Loi sur l’IA, les fournisseurs de systèmes d’IA présentant des risques de transparence doivent respecter les exigences suivantes :

  1. Chatbots et assistants numériques : Les fournisseurs doivent s’assurer que les systèmes d’IA destinés à interagir directement avec les individus sont conçus pour informer ces derniers qu’ils interagissent avec un système d’IA.
  2. Contenu synthétique généré par l’IA : Les fournisseurs de systèmes d’IA, y compris ceux qui génèrent du contenu audio, image, vidéo ou texte synthétique, doivent garantir que les sorties de ces systèmes sont marquées de manière lisible par machine et détectables comme étant artificiellement générées ou manipulées.

Ces exigences doivent être satisfaites dans la mesure du techniquement faisable, en tenant compte des caractéristiques spécifiques et des limitations des différents types de contenu.

Obligations des déployeurs

Les Articles 50(3) et 50(4) de la Loi sur l’IA spécifient les obligations de transparence pour les déployeurs de systèmes d’IA à risque limité :

  1. Deep fakes : Les déployeurs de systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo entraînant des deep fakes doivent divulguer que le contenu a été généré ou manipulé artificiellement.
  2. Texte généré ou manipulé par l’IA : Les entités déployant des systèmes d’IA pour générer ou manipuler du texte destiné à une diffusion publique doivent divulguer que le contenu a été généré ou manipulé artificiellement.
  3. Systèmes de reconnaissance émotionnelle ou de catégorisation biométrique : Les déployeurs de tels systèmes doivent informer les individus exposés à ces systèmes de leur fonctionnement.

Moment et format de livraison des avis requis

Les informations concernant les systèmes d’IA à risque limité doivent être fournies de manière claire et distincte lors de la première interaction de l’utilisateur avec le système.

Rôle de la Commission Européenne

La Commission Européenne examinera et pourrait modifier la liste des systèmes d’IA à risque limité tous les quatre ans. Elle facilitera également la création de codes de pratique pour mettre en œuvre les obligations de détection et d’étiquetage.

Interplay avec les obligations de transparence sous le RGPD et la Loi sur les Services Numériques

Les exigences de transparence imposées aux fournisseurs et déployeurs de certains systèmes d’IA par la Loi sur l’IA sont également cruciales pour la mise en œuvre efficace de la Loi sur les Services Numériques.

Sanctions et amendes

Les autorités compétentes nationales veilleront à la conformité avec les exigences de transparence. Le non-respect peut entraîner des amendes administratives pouvant atteindre 15 millions d’euros ou 3 % du chiffre d’affaires mondial total de l’opérateur pour l’année financière précédente, selon le montant le plus élevé.

Calendrier

Les exigences de transparence pour les systèmes d’IA à risque limité entreront en vigueur le 2 août 2026.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...