Les Obligations des Systèmes d’IA à Risque Limité : Comprendre l’Acte Européen sur l’Intelligence Artificielle

A lock and key

Étude sur la conformité réglementaire de l’IA : La Loi sur l’IA de l’UE

La Loi sur l’Intelligence Artificielle de l’Union Européenne (UE) illustre une approche réglementaire basée sur le risque. Un des aspects distinctifs de cette loi est sa classification détaillée des différents niveaux de risque associés aux technologies d’IA.

Classification des Systèmes d’IA

Chaque niveau de risque est associé à un ensemble de conditions. Les systèmes d’IA à haut risque sont soumis à un contrôle plus strict pour atténuer les dangers potentiels. Cet article se concentre sur les exigences pour une autre catégorie de risque – à savoir, les systèmes d’IA à risque limité, qui bénéficient d’une réglementation allégée.

Systèmes d’IA à Risque Limité

Certains systèmes d’IA conçus pour interagir avec des individus ou pour générer du contenu peuvent présenter des risques spécifiques d’imposture ou de tromperie. Ces systèmes sont classifiés comme systèmes d’IA à risque limité selon la Loi sur l’IA de l’UE (c’est-à-dire des systèmes d’IA avec des risques de transparence).

Les systèmes d’IA à risque limité comprennent ceux qui :

  • a) interagissent directement avec des individus (comme les chatbots et les assistants numériques);
  • b) génèrent du contenu audio, image, vidéo ou texte synthétique;
  • c) génèrent ou manipulent du contenu audio, image ou vidéo entraînant des deep fakes;
  • d) génèrent ou manipulent du texte destiné à informer le public sur des questions d’intérêt public;
  • e) sont des systèmes de reconnaissance émotionnelle ou de catégorisation biométrique.

Obligations des Fournisseurs

Selon les Articles 50(1) et 50(2) de la Loi sur l’IA, les fournisseurs de systèmes d’IA à risque limité doivent respecter les exigences suivantes :

  1. Chatbots et assistants numériques : Les fournisseurs doivent garantir que les systèmes d’IA destinés à interagir directement avec des individus sont conçus pour informer ces individus qu’ils interagissent avec un système d’IA.
  2. Contenu synthétique généré par l’IA : Les fournisseurs de systèmes d’IA générant du contenu synthétique doivent s’assurer que les sorties de ces systèmes sont marquées de manière lisible par machine et détectables comme étant générées ou manipulées artificiellement.

Ces exigences doivent être respectées dans la mesure où cela est techniquement faisable, en tenant compte des caractéristiques spécifiques des types de contenu et des coûts d’implémentation.

Obligations des Déployeurs

Les Articles 50(3) et 50(4) de la Loi sur l’IA spécifient les obligations de transparence pour les déployeurs de systèmes d’IA à risque limité :

  1. Deep fakes : Les déployeurs de systèmes d’IA générant ou manipulant du contenu audio, image ou vidéo doivent divulguer que le contenu a été généré ou manipulé artificiellement.
  2. Texte généré ou manipulé par l’IA : Les entités déployant des systèmes d’IA pour générer ou manipuler du texte destiné à la diffusion publique doivent divulguer que le contenu a été généré ou manipulé artificiellement.

Rôle de la Commission Européenne

La Commission Européenne examinera et modifiera potentiellement la liste des systèmes d’IA à risque limité tous les quatre ans. Elle facilitera également la création de codes de pratique pour mettre en œuvre les obligations de détection et d’étiquetage pour le contenu généré ou manipulé artificiellement.

Conformité et Sanctions

Les autorités nationales compétentes veilleront au respect des exigences de transparence. Le non-respect peut entraîner des amendes administratives pouvant atteindre 15 millions d’euros ou 3% du chiffre d’affaires mondial total de l’opérateur pour l’année financière précédente, selon le montant le plus élevé.

Conclusion

Les exigences de transparence pour les systèmes d’IA à risque limité entreront en vigueur le 2 août 2026. La Loi sur l’IA de l’UE représente un cadre crucial pour la régulation de l’IA, visant à équilibrer l’innovation technologique et la protection des droits fondamentaux.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...