OpenAI et d’autres entreprises technologiques affrontent l’obligation de transparence dans la loi sur l’IA en Europe
Le 28 février 2025, l’Union européenne a adopté un acte sur l’IA qui a été salué comme révolutionnaire. Il s’agit de la première loi mondiale visant à réglementer la technologie de l’intelligence artificielle, exigeant des entreprises d’IA qu’elles informent le public lorsque du contenu est généré par une IA.
Cependant, un des aspects les plus controversés de la loi concerne la transparence dans la phase amont, exigeant des entreprises d’IA qu’elles notifient les titulaires de droits lorsque leurs œuvres sont utilisées comme données d’entraînement pour les algorithmes de leurs systèmes d’IA générative. Cette obligation de notification, dont la mise en œuvre est encore en discussion, doit entrer en vigueur le 2 août et représente un point crucial dans la bataille pour les titulaires de droits cherchant une compensation et de nouveaux flux de revenus.
Les tensions avec les régulateurs européens
Des entreprises comme OpenAI, Meta et MistralAI se sont toutes prononcées contre l’acte sur l’IA, le qualifiant de fardeau qui ralentit l’innovation. Sam Altman, le dirigeant d’OpenAI, a même publié une tribune dans le quotidien français Le Monde, exhortant les régulateurs européens à envisager les conséquences de leurs décisions sur les opportunités futures.
Cette situation n’est pas la première fois que les géants de la technologie s’opposent aux régulateurs européens. En 2018, l’UE a été critiquée par des entreprises américaines, dont Meta, pour avoir imposé la loi sur la protection de la vie privée la plus stricte au monde, le RGPD (Règlement général sur la protection des données).
Litiges et défis juridiques
Au même moment, un groupe de médias, dirigé par le New York Times, a intenté une action en justice contre OpenAI pour atteinte aux droits d’auteur. En France, après l’échec des négociations avec OpenAI, le groupe de presse LVMH, Les Echos-Le Parisien, envisage également des actions en justice. Pierre Louette, président du groupe, a exprimé ses préoccupations concernant le plagiat des œuvres journalistiques.
La question de l’utilisation des œuvres par les entreprises d’IA sans compensation est devenue un sujet de débat intense. Jane C. Ginsburg, professeure de droit, a souligné que ces entreprises ont pu « ingurgiter des millions d’œuvres en scrapant Internet et en téléchargeant des collections, souvent à partir de sources illégales ». Les entrepreneurs de l’IA affirment que ces actions sont couvertes par des exceptions pour le « text and data mining » en Europe et le « fair use » aux États-Unis.
La nécessité d’un cadre réglementaire
Les interventions lors du sommet sur l’IA à Paris ont mis en avant la nécessité d’une transparence totale de la part des entreprises d’IA concernant les œuvres utilisées pour entraîner leurs systèmes. Les discussions ont également soulevé la question de l’impact de l’absence de régulation sur les droits des créateurs. Ayouch, un cinéaste, a exprimé que chaque innovation technologique nécessite un cadre réglementaire pour prospérer.
Il a déclaré : « Chaque innovation technologique a besoin d’un cadre de protection pour prospérer. Sans régulation, l’innovation s’effondre. »
Les défis futurs pour les entreprises d’IA
Malgré la pression croissante pour la transparence et la régulation, les entreprises d’IA continuent de résister à ces exigences. Au fur et à mesure que la date limite du 2 août approche, il est certain que des amendes pour non-conformité pourraient atteindre des milliards d’euros. Louette a averti que « nous savons que vous nous récoltez » et que les entreprises d’IA doivent être tenues responsables de l’utilisation de l’œuvre des créateurs.
Alors que le débat sur l’IA et ses implications légales continue de se développer, il est clair que les enjeux sont élevés tant pour les entreprises technologiques que pour les créateurs de contenu. L’équilibre entre innovation et protection des droits d’auteur reste un défi majeur dans le paysage technologique européen.