Nouvelle Loi sur la Transparence de l’IA : Un Regard sur les Données de Formation
Le 22 janvier 2026, des représentants de la Chambre ont introduit un projet de loi bipartisan qui pourrait redéfinir la relation entre le droit d’auteur et l’intelligence artificielle. Appelé la loi sur la Transparence et la Responsabilité des Réseaux d’Intelligence Artificielle (TRAIN), ce projet vise à offrir aux propriétaires de droits d’auteur un chemin plus clair pour comprendre si et comment leurs œuvres sont utilisées pour former des modèles d’IA générative.
Processus Administratif de Subpoena
Au cœur de ce projet de loi se trouve un nouveau processus de subpoena administratif ajouté à la loi sur le droit d’auteur. Selon la loi TRAIN, un propriétaire de droits d’auteur qui croit de bonne foi que son œuvre a été utilisée pour former un modèle d’IA générative peut demander un subpoena, émis par le greffier d’un tribunal de district américain, obligeant un développeur d’IA à divulguer des copies des matériaux de formation ou des dossiers suffisants pour les identifier avec certitude.
Ce projet de loi ne s’applique pas seulement aux modèles originaux, mais aussi aux versions substantiellement modifiées, y compris celles qui ont été réentraînées ou ajustées après leur publication initiale.
Il est important de noter que les titulaires de droits ne peuvent demander des informations que sur leurs propres œuvres protégées par le droit d’auteur, et non sur les ensembles de données de formation plus larges utilisés par un développeur. Pour initier le processus, le demandeur doit soumettre une déclaration sous serment indiquant que le subpoena est demandé uniquement pour déterminer si son matériel protégé a été utilisé et que tout dossier divulgué sera utilisé uniquement pour protéger ses droits.
Obligations et Sanctions
Pour les développeurs, les obligations sont claires : se conformer rapidement sous peine de conséquences. Le non-respect d’un subpoena valide créerait une présomption réfutable que le développeur a copié l’œuvre protégée, un changement notable qui pourrait affecter les litiges futurs en matière d’infraction. En même temps, le projet de loi inclut des protections contre les abus, permettant aux tribunaux d’imposer des sanctions aux titulaires de droits qui demandent des subpoenas de mauvaise foi.
Implications et Risques
Les partisans de la loi TRAIN la présentent comme une mesure de transparence, soutenant que les propriétaires de droits d’auteur manquent actuellement d’outils pratiques pour déterminer si leurs œuvres ont été intégrées par des pipelines de formation d’IA opaques. Cependant, des critiques pourraient soulever des préoccupations concernant la charge administrative, la confidentialité, y compris l’exposition de secrets commerciaux potentiels concernant la manière dont un modèle est formé, et l’effet dissuasif potentiel sur le développement de l’IA.
Comparaison avec les Lois des États
Jusqu’à présent, seuls quelques États ont adopté des lois exigeant une forme de divulgation concernant les données de formation de l’IA, chacune avec des portées et des mécanismes différents. Par exemple :
- La Californie exige des développeurs de systèmes d’IA générative d’afficher un résumé de leurs données de formation sur un site public.
- Le Connecticut impose une divulgation des données personnelles utilisées pour former de grands modèles de langage.
- Le Colorado demande aux développeurs de systèmes d’IA à haut risque de fournir des documents sur les catégories de données utilisées pour la formation.
Contrairement à ces lois étatiques qui reposent sur des divulgations généralisées, la loi TRAIN créerait un mécanisme ciblé, dirigé par les titulaires de droits, pour obtenir des informations spécifiques sur l’utilisation d’œuvres protégées dans la formation d’IA.
Conclusion
Si elle est adoptée, la loi TRAIN pourrait réduire la nécessité d’une approche fragmentée, État par État, et offrir un chemin plus large et plus efficace pour que les propriétaires de contenu déterminent si leurs matériaux sont utilisés pour former des systèmes d’IA.