L’impact du règlement sur l’IA de l’Union Européenne : Vers une gouvernance numérique légitime ?

A lock and key

Douter d’un « Brussels Effect 2.0 » : L’Acte sur l’IA de l’Union Européenne peut-il favoriser la légitimité ?

Avec plus de 42 œuvres d’art vendues avec succès lors d’enchères hebdomadaires, cet artiste a généré un bénéfice de plus de 2,47 millions USD, le plaçant au 17ème rang des artistes les plus vendus sur SuperRare, un site d’enchères numériques pour les NFT (tokens non fongibles). Cependant, ces chiffres impressionnants cachent une vérité surprenante : cet artiste n’est pas humain. Botto, cette IA générative, est une expérience menée pour observer comment les machines peuvent créer des œuvres d’art de manière autonome sans intervention humaine directe.

Ces dernières années, l’IA générative, généralement utilisée pour générer des images, des textes et des fichiers audiovisuels à partir de prompts créés par des programmeurs humains, a gagné en importance. Bien qu’il s’agisse d’une merveille, le fait que l’IA générative puisse produire des œuvres si semblables à celles faites par des mains humaines suscite également des alarmes. Cela a engendré de nouveaux dilemmes concernant ses implications juridiques, en particulier dans les litiges interétatiques.

Connaître l’Acte sur l’IA de l’Union Européenne

À l’heure actuelle, il n’existe pas de normes universelles régissant l’IA générative, car il s’agit d’une technologie relativement nouvelle. Avant l’Acte sur l’IA, l’UE faisait référence à des dispositions légales existantes concernant la question, bien qu’aucune d’entre elles ne soit spécifiquement concentrée sur l’IA générative comme une forme d’intelligence artificielle distincte. Même après l’adoption de l’Acte, l’IA générative est souvent considérée comme un sui generis : une « exception » dans le droit international en raison de sa dépendance particulière vis-à-vis des algorithmes de données non humaines, rendant son statut légal hautement débattable.

Les deux principales réglementations sur les données numériques auxquelles l’UE se réfère régulièrement sont la Directive sur le Droit d’Auteur de l’Union Européenne (UECD) et le CDSM (Droit d’Auteur dans le Marché Unique Numérique). L’UECD, amendée en 2019, stipule que le droit d’auteur appartient à tous les propriétaires de toute œuvre originale, tant qu’elle remplit deux critères principaux : originalité et créativité. Cependant, ce que ces deux critères définissent véritablement reste flou.

Défis derrière l’Acte sur l’IA

Trois points mettent en lumière la faiblesse de l’Acte sur l’IA pour favoriser une gouvernance numérique légitime concernant l’IA générative. Le premier point concerne l’obscurité des lois sur la propriété intellectuelle. La mise en œuvre de ces lois repose fortement sur les capacités domestiques de chaque État. De plus, les lois sur la propriété intellectuelle risquent d’être perçues comme illégitimes, et donc, non urgentes à mettre en œuvre.

Le deuxième point concerne les aspects éthiques de l’utilisation de contenus générés par l’IA. L’IA générative est souvent utilisée pour plagier des contenus, falsifier des données personnelles et propager de fausses informations. Un exemple des controverses éthiques entourant l’IA générative dans le contexte européen s’est produit lors de la guerre russo-ukrainienne, où la Russie a utilisé des deepfakes pour produire une vidéo du président ukrainien, Volodymyr Zelenskyy, déclarant que la guerre était terminée.

Le troisième obstacle est le manque de mise en œuvre optimale des réglementations de l’Acte. L’Acte est souvent considéré comme « radical » pour sa catégorisation unique des IA en fonction de leurs risques plutôt que de leurs objectifs, ce qui le rend subjectif et très débattable.

Nouveaux doutes, nouvelles urgences

La prise de position unique de l’UE sur l’IA à travers l’Acte signale un potentiel début de la diffusion généralisée des normes concernant la gouvernance numérique. Cependant, un renouvellement urgent de l’Acte est nécessaire – en classifiant l’IA selon un objectif spécifique plutôt qu’en fonction des risques, l’Acte pourrait accroître sa légitimité grâce à la mise en œuvre de normes plus objectives.

La coopération avec des institutions telles que l’ONU, l’UIT (Union Internationale des Télécommunications) et l’ENISA (Agence de l’Union Européenne pour la Cybersécurité) pourrait également être bénéfique pour socialiser l’importance de l’Acte. En collaborant avec des organisations internationales, des institutions académiques et des organisations de la société civile, l’UE pourrait créer des réseaux plus larges pour promouvoir ses normes, facilitant ainsi l’effet Bruxelles tant désiré.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...