Neues Gesetz zur Transparenz von KI zielt darauf ab, den Vorhang über KI-Trainingsdaten zu lüften
Am 22. Januar 2026 wurde ein parteiübergreifendes Gesetz mit der Bezeichnung H.R. 7209 eingeführt, das die Beziehung zwischen Urheberrecht und künstlicher Intelligenz erheblich verändern könnte. Bekannt als das Gesetz über Transparenz und Verantwortung für künstliche Intelligenznetzwerke (TRAIN Act) zielt der Vorschlag darauf ab, Urheberrechtsinhabern einen klareren Weg zu bieten, um zu verstehen, ob und wie ihre Werke zur Schulung generativer KI-Modelle verwendet werden.
Kern des Gesetzes
Im Mittelpunkt des Gesetzes steht ein neuer Verwaltungsprozess zur Vorladung, der dem Urheberrechtsgesetz hinzugefügt wurde. Nach dem TRAIN Act kann ein Urheberrechtsinhaber, der in gutem Glauben glaubt, dass sein Werk zur Schulung eines generativen KI-Modells verwendet wurde, eine Vorladung beantragen. Diese wird von einem Mitarbeiter des US-Bezirksgerichts ausgestellt und zwingt einen KI-Entwickler zur Offenlegung von Kopien von Schulungsmaterialien oder Aufzeichnungen, die ausreichen, um diese mit Sicherheit zu identifizieren. Das Gesetz gilt nicht nur für originale Modelle, sondern auch für wesentlich modifizierte Versionen, einschließlich solcher, die nach der ursprünglichen Veröffentlichung neu trainiert oder optimiert wurden.
Wichtig ist, dass Rechteinhaber nur Informationen über ihre eigenen urheberrechtlich geschützten Werke anfordern dürfen, nicht über die umfassenderen Trainingsdatensätze, die von einem Entwickler verwendet werden. Um den Prozess einzuleiten, muss der Antragsteller eine eidesstattliche Erklärung einreichen, in der erklärt wird, dass die Vorladung ausschließlich dazu dient, festzustellen, ob ihr urheberrechtlich geschütztes Material verwendet wurde und dass alle offengelegten Aufzeichnungen nur zum Schutz ihrer Rechte verwendet werden.
Verpflichtungen für Entwickler
Die Verpflichtungen für Entwickler sind klar: Sie müssen schnellstmöglich compliance leisten oder mit Konsequenzen rechnen. Die Nichteinhaltung einer gültigen Vorladung würde eine widerlegbare Vermutung schaffen, dass der Entwickler das urheberrechtlich geschützte Werk kopiert hat – eine bemerkenswerte Wendung, die zukünftige Verletzungsverfahren beeinflussen könnte. Gleichzeitig enthält das Gesetz Schutzmaßnahmen gegen Missbrauch, die es Gerichten ermöglichen, Sanktionen gegen Rechteinhaber zu verhängen, die in böser Absicht Vorladungen beantragen.
Diskussion und Kritik
Unterstützer des TRAIN Acts rahmen es als Transparenzmaßnahme und argumentieren, dass Urheberrechtsinhaber derzeit praktische Werkzeuge fehlen, um festzustellen, ob ihre Werke in undurchsichtige KI-Trainingspipelines aufgenommen wurden. Kritiker hingegen könnten Bedenken hinsichtlich der administrativen Belastung, Vertraulichkeit, einschließlich der Offenlegung potenzieller Geschäftsgeheimnisse zur Schulung eines Modells, und der potenziellen Abschreckung von KI-Entwicklungen äußern.
Vergleich mit bestehenden Gesetzen
Bisher haben nur wenige Bundesstaaten Gesetze erlassen, die eine Art Offenlegung über KI-Trainingsdaten erfordern, und sie tun dies mit unterschiedlichen Reichweiten und Mechanismen. Zum Beispiel verlangt Kalifornien von Entwicklern generativer KI-Systeme, eine Zusammenfassung ihrer Trainingsdaten auf einer öffentlichen Website zu veröffentlichen. Connecticut und Colorado haben ähnliche, jedoch unterschiedliche Anforderungen an die Offenlegung.
Im Gegensatz zu diesen staatlichen Gesetzen, die auf allgemeinen Offenlegungen oder Risikodokumentationen basieren, würde der TRAIN Act einen gezielten, rechteinhabergetriebenen Mechanismus schaffen, um spezifische Informationen darüber zu erhalten, ob bestimmte urheberrechtlich geschützte Werke in der KI-Schulung verwendet wurden.
Schlussfolgerung
Wenn der TRAIN Act verabschiedet wird, könnte er die Notwendigkeit eines fragmentierten, bundesstaatlichen Ansatzes verringern und einen breiteren, effektiveren Weg für Inhaltsinhaber bieten, um festzustellen, ob ihre Materialien zur Schulung von KI-Systemen verwendet werden.