La pression des États-Unis complique les efforts de réglementation de l’IA en Europe
À peine six mois après l’entrée en vigueur de la première législation complète sur l’IA au monde, des chefs d’État, des PDG d’entreprises telles que Google, Microsoft et OpenAI, ainsi que des scientifiques et des responsables gouvernementaux se sont réunis à Paris pour le Sommet d’Action sur l’IA.
Lors de ce sommet, le vice-président américain, JD Vance, a exprimé : « Je ne suis pas ici ce matin pour parler de la sécurité de l’IA. Je suis ici pour parler de l’opportunité de l’IA. » Il a critiqué la législation en place, arguant que « une réglementation excessive du secteur de l’IA pourrait tuer une industrie transformative juste au moment où elle décolle. »
Le code de pratique pour l’IA
Au cœur de cette législation se trouve un code de pratique volontaire pour les modèles d’IA à usage général, élaboré par des experts indépendants en consultation avec des acteurs de l’industrie, des universitaires et des représentants de la société civile.
Pour les modèles d’IA pouvant présenter des risques systémiques, le code définit comment les fournisseurs doivent évaluer et atténuer ces risques. Il vise également à préciser comment les développeurs doivent respecter les droits de propriété intellectuelle lors de la formation des systèmes d’IA. Cependant, la finalisation de ce code est devenue une véritable lutte d’influence.
Les effets de la pression américaine
En coulisses, certains à Bruxelles reconnaissent que la pression américaine et l’inquiétude croissante dans certaines capitales européennes compliquent les efforts de réglementation. La récente demande de Pologne d’une pause sur certaines parties de la mise en œuvre de la loi sur l’IA reflète cette anxiété. Cette intervention est perçue comme un signe précoce : certains États membres craignent que l’UE n’aille trop loin, trop vite, ou d’une manière qui pourrait déclencher des disputes commerciales.
Parallèlement, les secteurs créatifs européens se sentent de plus en plus abandonnés. Les artistes, musiciens, écrivains et journalistes voient leur travail utilisé pour former des systèmes d’IA générative, capables de produire des imitations convaincantes de musique, d’images et de textes humains en quelques secondes, et ce, sans leur consentement, crédit ou compensation.
Les implications juridiques
La Commission européenne insiste sur le fait qu’elle est liée par la législation sur le droit d’auteur existante, affirmant que la loi sur l’IA ne peut pas dépasser la directive sur le droit d’auteur de l’UE qui prévoit une exception permettant l’utilisation d’œuvres protégées pour des fins de recherche scientifique sans autorisation. Cependant, de nombreux créateurs espéraient que la loi sur l’IA garantirait une responsabilité quant à la manière dont les modèles sont formés sur leurs œuvres. Alors que cette possibilité s’éloigne, des promesses d’une révision plus large des règles de droit d’auteur pourraient être envisagées l’année prochaine.
En l’absence d’intervention législative, il incombera aux tribunaux de décider si les entreprises d’IA doivent être autorisées à former des modèles sur des œuvres protégées sans autorisation, et si oui, quelles règles de transparence, de licence ou de choix permettront de garantir un traitement équitable des créateurs.
Les enjeux pour le secteur des médias
Dans le secteur des médias, les enjeux ne sont pas seulement économiques mais également démocratiques. Le contenu généré par l’IA, dépourvu d’attribution, menace la capacité des éditeurs de nouvelles à générer des revenus à partir de leur contenu, et par extension, la pluralité médiatique essentielle à une société démocratique.
Le rapport annuel sur l’actualité numérique de l’Institut Reuters a révélé que de plus en plus de personnes utilisent des chatbots d’IA pour lire des titres et obtenir des mises à jour d’actualités. Bien que seulement 7 % des personnes disent utiliser des chatbots d’IA pour trouver des nouvelles, ce chiffre grimpe à 15 % chez les moins de 25 ans.
Conclusion
La Commission mérite des éloges pour avoir eu le courage de proposer une réglementation visant à atténuer les risques posés par l’IA. Cependant, la législation échoue à déterminer de manière définitive comment équilibrer le développement de l’IA européenne, formée sur des données européennes pour refléter les valeurs et la culture européennes, tout en protégeant les industries créatives et médiatiques du continent.
Le code de pratique était censé offrir au moins des réponses partielles. Aujourd’hui, il risque de devenir un texte fragile, tiraillé entre les avertissements de la Silicon Valley concernant un excès de réglementation et les avertissements des titulaires de droits concernant l’érosion économique déjà en cours.
Le Parlement européen se trouve dans une position délicate. Après un compromis ardu, il est naturellement enclin à défendre le paquet législatif qu’il a adopté récemment. Cependant, il est également sollicité par les citoyens, les créateurs et les États membres pour combler les zones grises juridiques qui s’ouvrent déjà.
La fenêtre pour agir correctement se rétrécit. Le droit d’auteur n’est pas une simple question technique. Il touche au cœur de la souveraineté culturelle européenne et de la résilience démocratique à l’ère de l’IA.