L’Acte sur l’Intelligence Artificielle : Vers un Équilibre Normatif pour Protéger nos Valeurs Fondamentales

A pair of binoculars illustrating the need for foresight in AI regulation.

L’Acte sur l’Intelligence Artificielle : Prendre au sérieux les déséquilibres normatifs

Le texte final de l’Acte sur l’Intelligence Artificielle (AIA, 2024) a été approuvé par le Conseil européen le 21 mai. Cet acte sera généralement applicable à partir du 2 août 2026. Les principaux objectifs de cette réglementation récemment adoptée sont les suivants : améliorer le fonctionnement du marché intérieur et promouvoir l’adoption d’une intelligence artificielle (IA) centrée sur l’humain et digne de confiance, tout en garantissant un haut niveau de protection de la santé, de la sécurité et des droits fondamentaux.

Cependant, même si l’AIA fixe des objectifs ambitieux, il est important de reconnaître le risque significatif que ces objectifs ne soient pas atteints. Lorsqu’on les analyse sous un angle élevé, les moyens normatifs utilisés dans l’Acte semblent déséquilibrés pour fournir un cadre précieux pour atteindre les objectifs fixés.

Régulations basées sur des règles et régulations basées sur des principes

Toute réglementation juridique doit être bien équilibrée. Cela signifie qu’elle doit utiliser des moyens normatifs appropriés pour atteindre les objectifs visés. Nous utilisons une typologie rudimentaire desdits moyens normatifs qui englobe les règles et les principes. Les règles sont connues pour s’appliquer ou non, selon que certaines conditions soient remplies. En revanche, les principes ont des caractéristiques plus abstraites, souvent indiquant une expression générale de valeur ou d’objectif à promouvoir.

La structure normative de l’AIA

Il est largement connu que l’AIA est principalement une réglementation basée sur des règles fondée sur une classification des risques associés à l’IA. Certains types de risques qui portent atteinte aux valeurs européennes sont considérés comme inacceptables et sont couverts par des interdictions. Les exigences concernant les systèmes à haut risque font l’objet des règles les plus étendues.

Réglementation déséquilibrée

L’Acte est formulé de manière générale et est sujet à des clarifications à travers des réglementations de niveau inférieur. Bien qu’il soit possible que ces règles atteignent un équilibre approprié, cela semble peu probable concernant trois questions clés :

Premièrement, bien que l’Acte inclue plusieurs exigences pour protéger les droits fondamentaux, ces mesures sont insuffisantes. Deuxièmement, les structures de gouvernance de l’AIA peuvent imposer des charges disproportionnées aux parties concernées. Troisièmement, les fournisseurs d’IA peuvent tenter d’éviter de classer leurs systèmes comme à haut risque, ce qui pourrait affaiblir les protections des droits fondamentaux.

Remarques finales

Bien que les problèmes identifiés dans l’AIA ne puissent être complètement éliminés, plusieurs mesures peuvent être mises en œuvre pour atténuer leurs effets négatifs. Par exemple, les zones de réglementation pour l’IA pourraient être étendues pour évaluer les impacts sur les droits fondamentaux à travers des scénarios hypothétiques. De plus, des méthodes de règlement des différends alternatives devraient être encouragées pour réduire les exigences excessives sur les systèmes à haut risque.

Articles

Ingénieurs en IA : Performance ou Responsabilité ?

L'intelligence artificielle a connu une explosion de ses capacités, plaçant les ingénieurs en IA à l'avant-garde de l'innovation. Pendant ce temps, la responsabilité éthique devient cruciale, car les...

L’IA responsable : un impératif incontournable

L'intelligence artificielle responsable n'est plus un simple mot à la mode, mais une nécessité fondamentale, selon Dr Anna Zeiter. Elle souligne l'importance d'établir des systèmes d'IA fiables et...

Intégrer l’IA en toute conformité dans votre entreprise

L'adoption de l'IA dans les entreprises échoue au moins deux fois plus souvent qu'elle ne réussit, selon la Cloud Security Alliance (CSA). Le modèle proposé, appelé Dynamic Process Landscape (DPL)...

Préserver les données générées par l’IA : enjeux et meilleures pratiques

Les outils d'intelligence artificielle générative (GAI) soulèvent des préoccupations juridiques telles que la confidentialité des données et les considérations de privilège. Les organisations doivent...

L’Intelligence Artificielle Responsable : Principes et Avantages

Aujourd'hui, l'IA change la façon dont nous vivons et travaillons, il est donc très important de l'utiliser de manière appropriée. L'IA responsable signifie créer et utiliser une IA qui est juste...

Réussir avec l’IA : Éthique et Gouvernance au cœur de l’Innovation

Il y a vingt ans, personne n'aurait pu prédire que nous compterions sur l'intelligence artificielle (IA) pour prendre des décisions commerciales critiques. Aujourd'hui, les entreprises doivent se...

Régulation de l’IA en Espagne : Pionnière en Europe

L'Espagne est à l'avant-garde de la gouvernance de l'IA avec la création du premier régulateur européen de l'IA (AESIA) et un cadre réglementaire en cours d'élaboration. Un projet de loi national sur...

Réglementation de l’IA : État des lieux et enjeux mondiaux

L'intelligence artificielle (IA) a connu des avancées considérables ces dernières années, ce qui a entraîné des opportunités et des risques potentiels. Les gouvernements et les organismes de...

L’IA dans les jeux d’argent : enjeux et responsabilités

L'article aborde l'impact de l'intelligence artificielle dans l'industrie des jeux d'argent, mettant en lumière les promesses d'efficacité et les risques réglementaires croissants. Les opérateurs...