Réglementation britannique sur l’IA : Risques de biais et retours limités pour les créateurs

A shattered mirror

Les Règles de Copyright sur l’IA au Royaume-Uni : Un Risque de Recul ?

La réglementation britannique interdisant aux entreprises telles qu’OpenAI, Google et Meta d’entraîner des IA sur des matériaux protégés par des droits d’auteur pourrait compromettre la qualité des modèles et leur impact économique, préviennent les experts en politique. Cela pourrait entraîner des biais dans les résultats des modèles, sapant ainsi leur efficacité, tandis que les titulaires de droits sont peu susceptibles de recevoir le niveau de compensation qu’ils anticipent.

Un Système d’Opt-out Contesté

Le gouvernement britannique a ouvert une consultation en décembre 2024 pour explorer des moyens de protéger les droits des artistes, écrivains et compositeurs lorsqu’un contenu créatif est utilisé pour entraîner des modèles d’IA. Il a décrit un système permettant aux développeurs d’IA d’utiliser du contenu en ligne pour l’entraînement, sauf si le titulaire de droits s’oppose explicitement.

Les organismes représentant les industries créatives ont largement rejeté cette proposition, car elle met l’accent sur la nécessité pour les créateurs d’exclure leur contenu, plutôt que d’exiger des développeurs d’IA qu’ils demandent le consentement. Les entreprises technologiques ont également exprimé leur mécontentement, arguant que ce système compliquerait la détermination du contenu légalement utilisable, restreindrait les applications commerciales et exigerait une transparence excessive.

Des Conséquences Économiques Étendues

Benjamin White, fondateur du groupe de défense des droits d’auteur Knowledge Rights 21, a soutenu que les réglementations sur l’entraînement des IA affecteraient bien plus que les seules industries créatives. Étant donné que le droit d’auteur vise à stimuler l’investissement en protégeant la propriété intellectuelle, il a souligné que l’impact économique plus large de toute restriction devrait également être pris en compte. “Les règles qui affectent les chanteurs affectent également les scientifiques, et celles qui touchent les cliniciens influencent les compositeurs”, a-t-il déclaré.

Il a ajouté que la communauté scientifique est “très préoccupée par le cadre de la consultation”, notant qu’il néglige les avantages potentiels du partage de connaissances dans l’avancement de la recherche académique, ce qui, à son tour, offre des avantages considérables à la société et à l’économie.

Des Modèles Biaisés et des Revenus Minimaux

Bertin Martens, chercheur senior au think tank économique Bruegel, a ajouté : “Je pense que les industries médiatiques veulent avoir le beurre et l’argent du beurre. Elles utilisent déjà ces modèles pour augmenter leur propre productivité, et elles bénéficient de modèles de bonne qualité. En retenant leurs données pour l’entraînement, elles réduisent la qualité… donc cela se retourne contre elles.”

Si les développeurs d’IA signaient des accords de licence uniquement avec les éditeurs ou titulaires de droits consentants, les données sur lesquelles leurs modèles sont entraînés seraient biaisées. “Il est clair que même les grandes entreprises d’IA ne signeront pas de licences avec cette longue traîne de petits éditeurs”, a-t-il déclaré. “C’est beaucoup trop coûteux en termes de coûts de transaction, ce n’est pas faisable, et nous nous retrouvons donc avec des modèles biaisés contenant des informations partielles.”

Un Régime Inefficace et des Effets Négatifs

Julia Willemyns, cofondatrice du projet de recherche sur la politique technologique UK Day One, a déclaré que le régime d’opt-out est peu susceptible d’être efficace en pratique, car des juridictions avec des lois moins restrictives continueront d’autoriser l’accès au même contenu pour l’entraînement. Bloquer l’accès aux résultats de ces juridictions priverait finalement le Royaume-Uni des meilleurs modèles disponibles, a-t-elle averti. Elle a ajouté que cela “ralentit la diffusion technologique” et a des “effets négatifs sur la productivité.”

Des Revenus Inadéquats pour les Artistes

De plus, il est peu probable que les artistes gagnent des revenus significatifs grâce aux accords de licence pour l’IA. “Le problème est que chaque morceau de données n’a pas beaucoup de valeur pour les modèles, ces modèles fonctionnent à grande échelle”, a déclaré Willemyns. Même si les régimes de licence étaient appliqués à l’échelle mondiale et que le contenu des titulaires de droits ne pouvait être utilisé qu’avec un consentement légal explicite, le bénéfice économique pour les créateurs resterait “probablement très, très minimal.” “Nous échangeons donc des effets économiques à l’échelle nationale contre un bénéfice qui semble très négligeable”, a-t-elle déclaré.

Willemyns a ajouté que compliquer l’approche du droit d’auteur au Royaume-Uni en exigeant, par exemple, des régimes séparés pour l’entraînement de l’IA sur des matériaux scientifiques et créatifs pourrait créer une incertitude juridique. Cela surchargerait les tribunaux, découragerait l’adoption par les entreprises et risquerait de perdre les gains de productivité de l’IA. Une exemption pour le texte et l’extraction de données garantirait la simplicité.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...