Neues Gesetz zur KI-Transparenz: Aufdeckung von Trainingsdaten

Neues Gesetz zur Transparenz von KI zielt darauf ab, den Vorhang über KI-Trainingsdaten zu lüften

Am 22. Januar 2026 wurde ein parteiübergreifendes Gesetz mit der Bezeichnung H.R. 7209 eingeführt, das die Beziehung zwischen Urheberrecht und künstlicher Intelligenz erheblich verändern könnte. Bekannt als das Gesetz über Transparenz und Verantwortung für künstliche Intelligenznetzwerke (TRAIN Act) zielt der Vorschlag darauf ab, Urheberrechtsinhabern einen klareren Weg zu bieten, um zu verstehen, ob und wie ihre Werke zur Schulung generativer KI-Modelle verwendet werden.

Kern des Gesetzes

Im Mittelpunkt des Gesetzes steht ein neuer Verwaltungsprozess zur Vorladung, der dem Urheberrechtsgesetz hinzugefügt wurde. Nach dem TRAIN Act kann ein Urheberrechtsinhaber, der in gutem Glauben glaubt, dass sein Werk zur Schulung eines generativen KI-Modells verwendet wurde, eine Vorladung beantragen. Diese wird von einem Mitarbeiter des US-Bezirksgerichts ausgestellt und zwingt einen KI-Entwickler zur Offenlegung von Kopien von Schulungsmaterialien oder Aufzeichnungen, die ausreichen, um diese mit Sicherheit zu identifizieren. Das Gesetz gilt nicht nur für originale Modelle, sondern auch für wesentlich modifizierte Versionen, einschließlich solcher, die nach der ursprünglichen Veröffentlichung neu trainiert oder optimiert wurden.

Wichtig ist, dass Rechteinhaber nur Informationen über ihre eigenen urheberrechtlich geschützten Werke anfordern dürfen, nicht über die umfassenderen Trainingsdatensätze, die von einem Entwickler verwendet werden. Um den Prozess einzuleiten, muss der Antragsteller eine eidesstattliche Erklärung einreichen, in der erklärt wird, dass die Vorladung ausschließlich dazu dient, festzustellen, ob ihr urheberrechtlich geschütztes Material verwendet wurde und dass alle offengelegten Aufzeichnungen nur zum Schutz ihrer Rechte verwendet werden.

Verpflichtungen für Entwickler

Die Verpflichtungen für Entwickler sind klar: Sie müssen schnellstmöglich compliance leisten oder mit Konsequenzen rechnen. Die Nichteinhaltung einer gültigen Vorladung würde eine widerlegbare Vermutung schaffen, dass der Entwickler das urheberrechtlich geschützte Werk kopiert hat – eine bemerkenswerte Wendung, die zukünftige Verletzungsverfahren beeinflussen könnte. Gleichzeitig enthält das Gesetz Schutzmaßnahmen gegen Missbrauch, die es Gerichten ermöglichen, Sanktionen gegen Rechteinhaber zu verhängen, die in böser Absicht Vorladungen beantragen.

Diskussion und Kritik

Unterstützer des TRAIN Acts rahmen es als Transparenzmaßnahme und argumentieren, dass Urheberrechtsinhaber derzeit praktische Werkzeuge fehlen, um festzustellen, ob ihre Werke in undurchsichtige KI-Trainingspipelines aufgenommen wurden. Kritiker hingegen könnten Bedenken hinsichtlich der administrativen Belastung, Vertraulichkeit, einschließlich der Offenlegung potenzieller Geschäftsgeheimnisse zur Schulung eines Modells, und der potenziellen Abschreckung von KI-Entwicklungen äußern.

Vergleich mit bestehenden Gesetzen

Bisher haben nur wenige Bundesstaaten Gesetze erlassen, die eine Art Offenlegung über KI-Trainingsdaten erfordern, und sie tun dies mit unterschiedlichen Reichweiten und Mechanismen. Zum Beispiel verlangt Kalifornien von Entwicklern generativer KI-Systeme, eine Zusammenfassung ihrer Trainingsdaten auf einer öffentlichen Website zu veröffentlichen. Connecticut und Colorado haben ähnliche, jedoch unterschiedliche Anforderungen an die Offenlegung.

Im Gegensatz zu diesen staatlichen Gesetzen, die auf allgemeinen Offenlegungen oder Risikodokumentationen basieren, würde der TRAIN Act einen gezielten, rechteinhabergetriebenen Mechanismus schaffen, um spezifische Informationen darüber zu erhalten, ob bestimmte urheberrechtlich geschützte Werke in der KI-Schulung verwendet wurden.

Schlussfolgerung

Wenn der TRAIN Act verabschiedet wird, könnte er die Notwendigkeit eines fragmentierten, bundesstaatlichen Ansatzes verringern und einen breiteren, effektiveren Weg für Inhaltsinhaber bieten, um festzustellen, ob ihre Materialien zur Schulung von KI-Systemen verwendet werden.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...