Étude sur la conformité réglementaire de l’IA : La Loi sur l’IA de l’UE
La Loi sur l’Intelligence Artificielle de l’Union Européenne (UE) illustre une approche réglementaire basée sur le risque. Un des aspects distinctifs de cette loi est sa classification détaillée des différents niveaux de risque associés aux technologies d’IA.
Classification des Systèmes d’IA
Chaque niveau de risque est associé à un ensemble de conditions. Les systèmes d’IA à haut risque sont soumis à un contrôle plus strict pour atténuer les dangers potentiels. Cet article se concentre sur les exigences pour une autre catégorie de risque – à savoir, les systèmes d’IA à risque limité, qui bénéficient d’une réglementation allégée.
Systèmes d’IA à Risque Limité
Certains systèmes d’IA conçus pour interagir avec des individus ou pour générer du contenu peuvent présenter des risques spécifiques d’imposture ou de tromperie. Ces systèmes sont classifiés comme systèmes d’IA à risque limité selon la Loi sur l’IA de l’UE (c’est-à-dire des systèmes d’IA avec des risques de transparence).
Les systèmes d’IA à risque limité comprennent ceux qui :
- a) interagissent directement avec des individus (comme les chatbots et les assistants numériques);
- b) génèrent du contenu audio, image, vidéo ou texte synthétique;
- c) génèrent ou manipulent du contenu audio, image ou vidéo entraînant des deep fakes;
- d) génèrent ou manipulent du texte destiné à informer le public sur des questions d’intérêt public;
- e) sont des systèmes de reconnaissance émotionnelle ou de catégorisation biométrique.
Obligations des Fournisseurs
Selon les Articles 50(1) et 50(2) de la Loi sur l’IA, les fournisseurs de systèmes d’IA à risque limité doivent respecter les exigences suivantes :
- Chatbots et assistants numériques : Les fournisseurs doivent garantir que les systèmes d’IA destinés à interagir directement avec des individus sont conçus pour informer ces individus qu’ils interagissent avec un système d’IA.
- Contenu synthétique généré par l’IA : Les fournisseurs de systèmes d’IA générant du contenu synthétique doivent s’assurer que les sorties de ces systèmes sont marquées de manière lisible par machine et détectables comme étant générées ou manipulées artificiellement.
Ces exigences doivent être respectées dans la mesure où cela est techniquement faisable, en tenant compte des caractéristiques spécifiques des types de contenu et des coûts d’implémentation.
Obligations des Déployeurs
Les Articles 50(3) et 50(4) de la Loi sur l’IA spécifient les obligations de transparence pour les déployeurs de systèmes d’IA à risque limité :
- Deep fakes : Les déployeurs de systèmes d’IA générant ou manipulant du contenu audio, image ou vidéo doivent divulguer que le contenu a été généré ou manipulé artificiellement.
- Texte généré ou manipulé par l’IA : Les entités déployant des systèmes d’IA pour générer ou manipuler du texte destiné à la diffusion publique doivent divulguer que le contenu a été généré ou manipulé artificiellement.
Rôle de la Commission Européenne
La Commission Européenne examinera et modifiera potentiellement la liste des systèmes d’IA à risque limité tous les quatre ans. Elle facilitera également la création de codes de pratique pour mettre en œuvre les obligations de détection et d’étiquetage pour le contenu généré ou manipulé artificiellement.
Conformité et Sanctions
Les autorités nationales compétentes veilleront au respect des exigences de transparence. Le non-respect peut entraîner des amendes administratives pouvant atteindre 15 millions d’euros ou 3% du chiffre d’affaires mondial total de l’opérateur pour l’année financière précédente, selon le montant le plus élevé.
Conclusion
Les exigences de transparence pour les systèmes d’IA à risque limité entreront en vigueur le 2 août 2026. La Loi sur l’IA de l’UE représente un cadre crucial pour la régulation de l’IA, visant à équilibrer l’innovation technologique et la protection des droits fondamentaux.