Pression américaine et régulation de l’IA : l’Europe doit agir maintenant

A chess piece representing strategy and regulation

La pression des États-Unis complique les efforts de réglementation de l’IA en Europe

À peine six mois après l’entrée en vigueur de la première législation complète sur l’IA au monde, des chefs d’État, des PDG d’entreprises telles que Google, Microsoft et OpenAI, ainsi que des scientifiques et des responsables gouvernementaux se sont réunis à Paris pour le Sommet d’Action sur l’IA.

Lors de ce sommet, le vice-président américain, JD Vance, a exprimé : « Je ne suis pas ici ce matin pour parler de la sécurité de l’IA. Je suis ici pour parler de l’opportunité de l’IA. » Il a critiqué la législation en place, arguant que « une réglementation excessive du secteur de l’IA pourrait tuer une industrie transformative juste au moment où elle décolle. »

Le code de pratique pour l’IA

Au cœur de cette législation se trouve un code de pratique volontaire pour les modèles d’IA à usage général, élaboré par des experts indépendants en consultation avec des acteurs de l’industrie, des universitaires et des représentants de la société civile.

Pour les modèles d’IA pouvant présenter des risques systémiques, le code définit comment les fournisseurs doivent évaluer et atténuer ces risques. Il vise également à préciser comment les développeurs doivent respecter les droits de propriété intellectuelle lors de la formation des systèmes d’IA. Cependant, la finalisation de ce code est devenue une véritable lutte d’influence.

Les effets de la pression américaine

En coulisses, certains à Bruxelles reconnaissent que la pression américaine et l’inquiétude croissante dans certaines capitales européennes compliquent les efforts de réglementation. La récente demande de Pologne d’une pause sur certaines parties de la mise en œuvre de la loi sur l’IA reflète cette anxiété. Cette intervention est perçue comme un signe précoce : certains États membres craignent que l’UE n’aille trop loin, trop vite, ou d’une manière qui pourrait déclencher des disputes commerciales.

Parallèlement, les secteurs créatifs européens se sentent de plus en plus abandonnés. Les artistes, musiciens, écrivains et journalistes voient leur travail utilisé pour former des systèmes d’IA générative, capables de produire des imitations convaincantes de musique, d’images et de textes humains en quelques secondes, et ce, sans leur consentement, crédit ou compensation.

Les implications juridiques

La Commission européenne insiste sur le fait qu’elle est liée par la législation sur le droit d’auteur existante, affirmant que la loi sur l’IA ne peut pas dépasser la directive sur le droit d’auteur de l’UE qui prévoit une exception permettant l’utilisation d’œuvres protégées pour des fins de recherche scientifique sans autorisation. Cependant, de nombreux créateurs espéraient que la loi sur l’IA garantirait une responsabilité quant à la manière dont les modèles sont formés sur leurs œuvres. Alors que cette possibilité s’éloigne, des promesses d’une révision plus large des règles de droit d’auteur pourraient être envisagées l’année prochaine.

En l’absence d’intervention législative, il incombera aux tribunaux de décider si les entreprises d’IA doivent être autorisées à former des modèles sur des œuvres protégées sans autorisation, et si oui, quelles règles de transparence, de licence ou de choix permettront de garantir un traitement équitable des créateurs.

Les enjeux pour le secteur des médias

Dans le secteur des médias, les enjeux ne sont pas seulement économiques mais également démocratiques. Le contenu généré par l’IA, dépourvu d’attribution, menace la capacité des éditeurs de nouvelles à générer des revenus à partir de leur contenu, et par extension, la pluralité médiatique essentielle à une société démocratique.

Le rapport annuel sur l’actualité numérique de l’Institut Reuters a révélé que de plus en plus de personnes utilisent des chatbots d’IA pour lire des titres et obtenir des mises à jour d’actualités. Bien que seulement 7 % des personnes disent utiliser des chatbots d’IA pour trouver des nouvelles, ce chiffre grimpe à 15 % chez les moins de 25 ans.

Conclusion

La Commission mérite des éloges pour avoir eu le courage de proposer une réglementation visant à atténuer les risques posés par l’IA. Cependant, la législation échoue à déterminer de manière définitive comment équilibrer le développement de l’IA européenne, formée sur des données européennes pour refléter les valeurs et la culture européennes, tout en protégeant les industries créatives et médiatiques du continent.

Le code de pratique était censé offrir au moins des réponses partielles. Aujourd’hui, il risque de devenir un texte fragile, tiraillé entre les avertissements de la Silicon Valley concernant un excès de réglementation et les avertissements des titulaires de droits concernant l’érosion économique déjà en cours.

Le Parlement européen se trouve dans une position délicate. Après un compromis ardu, il est naturellement enclin à défendre le paquet législatif qu’il a adopté récemment. Cependant, il est également sollicité par les citoyens, les créateurs et les États membres pour combler les zones grises juridiques qui s’ouvrent déjà.

La fenêtre pour agir correctement se rétrécit. Le droit d’auteur n’est pas une simple question technique. Il touche au cœur de la souveraineté culturelle européenne et de la résilience démocratique à l’ère de l’IA.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...