L’Acte sur l’Intelligence Artificielle : Vers un Équilibre Normatif pour Protéger nos Valeurs Fondamentales

A pair of binoculars illustrating the need for foresight in AI regulation.

L’Acte sur l’Intelligence Artificielle : Prendre au sérieux les déséquilibres normatifs

Le texte final de l’Acte sur l’Intelligence Artificielle (AIA, 2024) a été approuvé par le Conseil européen le 21 mai. Cet acte sera généralement applicable à partir du 2 août 2026. Les principaux objectifs de cette réglementation récemment adoptée sont les suivants : améliorer le fonctionnement du marché intérieur et promouvoir l’adoption d’une intelligence artificielle (IA) centrée sur l’humain et digne de confiance, tout en garantissant un haut niveau de protection de la santé, de la sécurité et des droits fondamentaux.

Cependant, même si l’AIA fixe des objectifs ambitieux, il est important de reconnaître le risque significatif que ces objectifs ne soient pas atteints. Lorsqu’on les analyse sous un angle élevé, les moyens normatifs utilisés dans l’Acte semblent déséquilibrés pour fournir un cadre précieux pour atteindre les objectifs fixés.

Régulations basées sur des règles et régulations basées sur des principes

Toute réglementation juridique doit être bien équilibrée. Cela signifie qu’elle doit utiliser des moyens normatifs appropriés pour atteindre les objectifs visés. Nous utilisons une typologie rudimentaire desdits moyens normatifs qui englobe les règles et les principes. Les règles sont connues pour s’appliquer ou non, selon que certaines conditions soient remplies. En revanche, les principes ont des caractéristiques plus abstraites, souvent indiquant une expression générale de valeur ou d’objectif à promouvoir.

La structure normative de l’AIA

Il est largement connu que l’AIA est principalement une réglementation basée sur des règles fondée sur une classification des risques associés à l’IA. Certains types de risques qui portent atteinte aux valeurs européennes sont considérés comme inacceptables et sont couverts par des interdictions. Les exigences concernant les systèmes à haut risque font l’objet des règles les plus étendues.

Réglementation déséquilibrée

L’Acte est formulé de manière générale et est sujet à des clarifications à travers des réglementations de niveau inférieur. Bien qu’il soit possible que ces règles atteignent un équilibre approprié, cela semble peu probable concernant trois questions clés :

Premièrement, bien que l’Acte inclue plusieurs exigences pour protéger les droits fondamentaux, ces mesures sont insuffisantes. Deuxièmement, les structures de gouvernance de l’AIA peuvent imposer des charges disproportionnées aux parties concernées. Troisièmement, les fournisseurs d’IA peuvent tenter d’éviter de classer leurs systèmes comme à haut risque, ce qui pourrait affaiblir les protections des droits fondamentaux.

Remarques finales

Bien que les problèmes identifiés dans l’AIA ne puissent être complètement éliminés, plusieurs mesures peuvent être mises en œuvre pour atténuer leurs effets négatifs. Par exemple, les zones de réglementation pour l’IA pourraient être étendues pour évaluer les impacts sur les droits fondamentaux à travers des scénarios hypothétiques. De plus, des méthodes de règlement des différends alternatives devraient être encouragées pour réduire les exigences excessives sur les systèmes à haut risque.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...