Pression américaine et régulation de l’IA : l’Europe doit agir maintenant

A chess piece representing strategy and regulation

La pression des États-Unis complique les efforts de réglementation de l’IA en Europe

À peine six mois après l’entrée en vigueur de la première législation complète sur l’IA au monde, des chefs d’État, des PDG d’entreprises telles que Google, Microsoft et OpenAI, ainsi que des scientifiques et des responsables gouvernementaux se sont réunis à Paris pour le Sommet d’Action sur l’IA.

Lors de ce sommet, le vice-président américain, JD Vance, a exprimé : « Je ne suis pas ici ce matin pour parler de la sécurité de l’IA. Je suis ici pour parler de l’opportunité de l’IA. » Il a critiqué la législation en place, arguant que « une réglementation excessive du secteur de l’IA pourrait tuer une industrie transformative juste au moment où elle décolle. »

Le code de pratique pour l’IA

Au cœur de cette législation se trouve un code de pratique volontaire pour les modèles d’IA à usage général, élaboré par des experts indépendants en consultation avec des acteurs de l’industrie, des universitaires et des représentants de la société civile.

Pour les modèles d’IA pouvant présenter des risques systémiques, le code définit comment les fournisseurs doivent évaluer et atténuer ces risques. Il vise également à préciser comment les développeurs doivent respecter les droits de propriété intellectuelle lors de la formation des systèmes d’IA. Cependant, la finalisation de ce code est devenue une véritable lutte d’influence.

Les effets de la pression américaine

En coulisses, certains à Bruxelles reconnaissent que la pression américaine et l’inquiétude croissante dans certaines capitales européennes compliquent les efforts de réglementation. La récente demande de Pologne d’une pause sur certaines parties de la mise en œuvre de la loi sur l’IA reflète cette anxiété. Cette intervention est perçue comme un signe précoce : certains États membres craignent que l’UE n’aille trop loin, trop vite, ou d’une manière qui pourrait déclencher des disputes commerciales.

Parallèlement, les secteurs créatifs européens se sentent de plus en plus abandonnés. Les artistes, musiciens, écrivains et journalistes voient leur travail utilisé pour former des systèmes d’IA générative, capables de produire des imitations convaincantes de musique, d’images et de textes humains en quelques secondes, et ce, sans leur consentement, crédit ou compensation.

Les implications juridiques

La Commission européenne insiste sur le fait qu’elle est liée par la législation sur le droit d’auteur existante, affirmant que la loi sur l’IA ne peut pas dépasser la directive sur le droit d’auteur de l’UE qui prévoit une exception permettant l’utilisation d’œuvres protégées pour des fins de recherche scientifique sans autorisation. Cependant, de nombreux créateurs espéraient que la loi sur l’IA garantirait une responsabilité quant à la manière dont les modèles sont formés sur leurs œuvres. Alors que cette possibilité s’éloigne, des promesses d’une révision plus large des règles de droit d’auteur pourraient être envisagées l’année prochaine.

En l’absence d’intervention législative, il incombera aux tribunaux de décider si les entreprises d’IA doivent être autorisées à former des modèles sur des œuvres protégées sans autorisation, et si oui, quelles règles de transparence, de licence ou de choix permettront de garantir un traitement équitable des créateurs.

Les enjeux pour le secteur des médias

Dans le secteur des médias, les enjeux ne sont pas seulement économiques mais également démocratiques. Le contenu généré par l’IA, dépourvu d’attribution, menace la capacité des éditeurs de nouvelles à générer des revenus à partir de leur contenu, et par extension, la pluralité médiatique essentielle à une société démocratique.

Le rapport annuel sur l’actualité numérique de l’Institut Reuters a révélé que de plus en plus de personnes utilisent des chatbots d’IA pour lire des titres et obtenir des mises à jour d’actualités. Bien que seulement 7 % des personnes disent utiliser des chatbots d’IA pour trouver des nouvelles, ce chiffre grimpe à 15 % chez les moins de 25 ans.

Conclusion

La Commission mérite des éloges pour avoir eu le courage de proposer une réglementation visant à atténuer les risques posés par l’IA. Cependant, la législation échoue à déterminer de manière définitive comment équilibrer le développement de l’IA européenne, formée sur des données européennes pour refléter les valeurs et la culture européennes, tout en protégeant les industries créatives et médiatiques du continent.

Le code de pratique était censé offrir au moins des réponses partielles. Aujourd’hui, il risque de devenir un texte fragile, tiraillé entre les avertissements de la Silicon Valley concernant un excès de réglementation et les avertissements des titulaires de droits concernant l’érosion économique déjà en cours.

Le Parlement européen se trouve dans une position délicate. Après un compromis ardu, il est naturellement enclin à défendre le paquet législatif qu’il a adopté récemment. Cependant, il est également sollicité par les citoyens, les créateurs et les États membres pour combler les zones grises juridiques qui s’ouvrent déjà.

La fenêtre pour agir correctement se rétrécit. Le droit d’auteur n’est pas une simple question technique. Il touche au cœur de la souveraineté culturelle européenne et de la résilience démocratique à l’ère de l’IA.

Articles

Examiner les impacts de la Loi sur l’Intelligence Artificielle de l’UE

De nouvelles obligations découlant de la loi sur l'intelligence artificielle de l'UE concernant les modèles d'IA à usage général entreront en vigueur en août, avec d'autres obligations prévues pour...

L’Intelligence Artificielle sous Régulation : Un Débat Crucial

Le scientifique en chef de Microsoft, Dr. Eric Horvitz, critique la proposition de Donald Trump visant à interdire la réglementation de l'IA au niveau des États, affirmant que cela pourrait freiner le...

Pression américaine et régulation de l’IA : l’Europe doit agir maintenant

Scarcely six months after the world’s first comprehensive AI legislation entered into force, heads of state, CEOs from companies such as Google, Microsoft, and OpenAI gathered in Paris last February...

Réglementation des outils d’IA en santé : Défis et opportunités

Un nouveau rapport du Bipartisan Policy Center examine le paysage réglementaire complexe des outils d'IA en santé qui échappent à la juridiction de la FDA. Ce rapport souligne l'importance de...

Gouvernance de l’IA au Texas : Une Révolution Législative

Le 31 mai 2025, la législature du Texas a adopté la loi sur la gouvernance responsable de l'intelligence artificielle (TRAIGA), qui établit des exigences de divulgation pour les développeurs et...

Texas adopte une loi pionnière sur la gouvernance de l’IA responsable

Le 22 juin 2025, le gouverneur du Texas, Greg Abbott, a signé la loi sur la gouvernance responsable de l'IA au Texas (TRAIGA), marquant la fin d'un projet de loi qui a reçu une attention nationale...

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...