L’Acte sur l’Intelligence Artificielle : Prendre au sérieux les déséquilibres normatifs
Le texte final de l’Acte sur l’Intelligence Artificielle (AIA, 2024) a été approuvé par le Conseil européen le 21 mai. Cet acte sera généralement applicable à partir du 2 août 2026. Les principaux objectifs de cette réglementation récemment adoptée sont les suivants : améliorer le fonctionnement du marché intérieur et promouvoir l’adoption d’une intelligence artificielle (IA) centrée sur l’humain et digne de confiance, tout en garantissant un haut niveau de protection de la santé, de la sécurité et des droits fondamentaux.
Cependant, même si l’AIA fixe des objectifs ambitieux, il est important de reconnaître le risque significatif que ces objectifs ne soient pas atteints. Lorsqu’on les analyse sous un angle élevé, les moyens normatifs utilisés dans l’Acte semblent déséquilibrés pour fournir un cadre précieux pour atteindre les objectifs fixés.
Régulations basées sur des règles et régulations basées sur des principes
Toute réglementation juridique doit être bien équilibrée. Cela signifie qu’elle doit utiliser des moyens normatifs appropriés pour atteindre les objectifs visés. Nous utilisons une typologie rudimentaire desdits moyens normatifs qui englobe les règles et les principes. Les règles sont connues pour s’appliquer ou non, selon que certaines conditions soient remplies. En revanche, les principes ont des caractéristiques plus abstraites, souvent indiquant une expression générale de valeur ou d’objectif à promouvoir.
La structure normative de l’AIA
Il est largement connu que l’AIA est principalement une réglementation basée sur des règles fondée sur une classification des risques associés à l’IA. Certains types de risques qui portent atteinte aux valeurs européennes sont considérés comme inacceptables et sont couverts par des interdictions. Les exigences concernant les systèmes à haut risque font l’objet des règles les plus étendues.
Réglementation déséquilibrée
L’Acte est formulé de manière générale et est sujet à des clarifications à travers des réglementations de niveau inférieur. Bien qu’il soit possible que ces règles atteignent un équilibre approprié, cela semble peu probable concernant trois questions clés :
Premièrement, bien que l’Acte inclue plusieurs exigences pour protéger les droits fondamentaux, ces mesures sont insuffisantes. Deuxièmement, les structures de gouvernance de l’AIA peuvent imposer des charges disproportionnées aux parties concernées. Troisièmement, les fournisseurs d’IA peuvent tenter d’éviter de classer leurs systèmes comme à haut risque, ce qui pourrait affaiblir les protections des droits fondamentaux.
Remarques finales
Bien que les problèmes identifiés dans l’AIA ne puissent être complètement éliminés, plusieurs mesures peuvent être mises en œuvre pour atténuer leurs effets négatifs. Par exemple, les zones de réglementation pour l’IA pourraient être étendues pour évaluer les impacts sur les droits fondamentaux à travers des scénarios hypothétiques. De plus, des méthodes de règlement des différends alternatives devraient être encouragées pour réduire les exigences excessives sur les systèmes à haut risque.