Copyright-Recht und KI: Die Folgen von Trumps Executive Order

Urheberrechtsgesetz, das die KI unter dem Exekutivbefehl von Trump regeln soll

Die rechtliche Landschaft für künstliche Intelligenz befindet sich in einer Phase der rasanten Konsolidierung. Mit dem Exekutivbefehl von Präsident Trump im Dezember 2025, der einen nationalen Rahmen für KI festlegt, könnte die Ära widersprüchlicher staatlicher Regeln zu Ende gehen.

Dies signalisiert jedoch keinen Rückgang des rechtlichen Risikos im Zusammenhang mit KI. Vielmehr markiert es den Beginn einer anderen Art der Überprüfung, die sich nicht auf regulatorische Innovation, sondern auf das mächtigste rechtliche Instrument konzentriert, das den Bundesgerichten bereits zur Verfügung steht: das Urheberrecht.

Die Lehren aus der KI-Rechtsprechung

Die Lehre, die aus den jüngsten KI-Verfahren, insbesondere Bartz gegen Anthropic PBC, hervorgeht, ist, dass das größte Haftungsrisiko für KI-Entwickler nicht von dem kommt, was ihre Modelle erzeugen. Es kommt vielmehr davon, wie diese Modelle trainiert wurden und woher die Inhalte stammen, die für dieses Training verwendet wurden.

Mit der Behauptung der Bundesregierung, die Oberhoheit über die KI-Regulierung zu übernehmen, wird die entscheidende Frage sein, ob Entwickler nachweisen können, dass ihre Trainingsdaten rechtmäßig erworben, angemessen lizenziert (es sei denn, sie befinden sich im öffentlichen Bereich) und gründlich dokumentiert wurden.

Wichtige Eingaben

Bisher hat kein US-Gericht entschieden, dass die Ausgaben eines KI-Modells urheberrechtlich verletzende abgeleitete Werke werden, nur weil es auf urheberrechtlich geschützten Inhalten trainiert wurde. Auf der anderen Seite würde die bloße Verwendung eines KI-Programms zur Kopie und Integration bestimmter urheberrechtlich geschützter Elemente eine andere Angelegenheit darstellen und eine Verletzung bedeuten.

Die Gerichte haben sich auf zwei festgelegte Grundsätze konzentriert. Erstens kann das Training mit rechtmäßig erworbenen Materialien als faire Nutzung qualifiziert werden. Sowohl Bartz als auch Kadrey gegen Meta Platforms, Inc. hielten die Verwendung rechtmäßig erworbener Bücher für das großangelegte Training für „essentiell transformativ“, ein wichtiger Faktor, den die Gerichte bei der Feststellung berücksichtigen, ob eine Nutzung „faire Nutzung“ oder einfach Verletzung ist.

Wichtig ist, dass die Modelle geschützte Ausdrucksformen überhaupt nicht reproduzieren oder aneignen – den Teil eines Werkes, den das Urheberrecht tatsächlich schützt. Stattdessen lernen sie in der Trainingsphase statistische Beziehungen zwischen Wörtern. Wo kein geschützter Ausdruck entnommen wird, liegt keine Verletzung vor, und die Frage der fairen Nutzung stellt sich nie.

Zweitens bricht die faire Nutzung zusammen, wenn das zugrunde liegende Material unrechtmäßig erworben wurde. Diese Unterscheidung ist nun der doktrinale Schwerpunkt. Wenn Trainingsdaten urheberrechtlich geschützte Bücher, gescraptes Material von fragwürdiger Herkunft oder Kopien enthalten, die außerhalb eines Lizenzrahmens erworben wurden, verdampft die Verteidigung der fairen Nutzung.

Was bleibt, ist eine klare Verletzung des ausschließlichen Rechts zur Reproduktion gemäß 17 USC Abschnitt 106(1) und des ausschließlichen Rechts zur Schaffung abgeleiteter Werke gemäß 17 USC Abschnitt 106(2).

Die Bedeutung des Bartz-Falles

Das Urteil von Richter William Alsup in Bartz gliederte den Fall präzise: Das Training mit rechtmäßig gekauften oder lizenzierten Werken qualifizierte sich als faire Nutzung, während das Training mit piratierten Kopien aus Schattenbibliotheken nicht zulässig war. Das Gericht stellte fest, dass die Verwendung von gekauften Büchern durch Anthropic „äußerst transformativ“ war und die faire Nutzung unterstützte. Allerdings wog das Herunterladen und die Speicherung von über sieben Millionen piratierten Büchern gegen die faire Nutzung, was zu einem Schadensprozess führte.

Die eigentliche Bedeutung des Falls kam, als Alsup eine Klasse von 482.460 Urheberrechtsinhabern zertifizierte, deren Werke in Datensätzen enthalten waren, die angeblich aus Schattenbibliotheken heruntergeladen wurden. Dies verwandelte bescheidene Schäden in eine existenzielle Bedrohung: potenzielle Haftungen von mindestens 360 Millionen und maximal fast 72 Milliarden Dollar. Trotz des Gewinns des Arguments der transformierenden Nutzung einigte sich Anthropic auf 1,5 Milliarden Dollar, die größte Urheberrechtsvereinbarung in der Geschichte.

Die Auswirkungen des Exekutivbefehls

Der Exekutivbefehl hat weitreichende Folgen, da er die rechtlichen Risiken im Zusammenhang mit KI nicht verringert, sondern umstrukturiert. Zunächst bedeutet ein einheitlicher bundesstaatlicher Standard, dass die Bundesgerichte nun die Durchsetzung von KI dominieren werden. Die Schaffung eines KI-Litigation-Taskforces im Justizministerium, der Auftrag an das Handelsministerium, widersprüchliche staatliche Gesetze zu identifizieren, und die Bedingung von Bundesförderungen an die Einhaltung der Bundesgesetze stellen sicher, dass zukünftige KI-Streitigkeiten ausschließlich in bundesstaatlichen Foren verhandelt werden.

Zweitens ist das Urheberrecht bereits vollständig entwickelt und wird in Bundesgerichten angewendet. Das Urheberrechtsgesetz sieht strenge Haftung, gesetzliche Schadensersatzansprüche ohne Nachweis eines Schadens (vorausgesetzt, bestimmte Formalitäten werden erfüllt), Sammelklage-Mechanismen, die eine Massenaggregation ermöglichen, und eine faire Nutzung vor, die nur potenziell gilt, wenn das urheberrechtlich geschützte Werk rechtmäßig erworben wurde. Mit der zunehmenden Notwendigkeit, rechtmäßige Erwerbe nachzuweisen, wird die Branche unter Druck geraten.

Zusammenfassend lässt sich sagen, dass der Exekutivbefehl das Feld für das Urheberrecht räumt, um die dominierende Regulierung von KI zu werden.

Lizenzierte Trainingsdaten

Faire Nutzung ist keine allgemeine Ausrede für undurchsichtige oder opportunistische Datenakquisition. Sie schützt nur diejenigen, die mit rechtmäßig erworbenen Kopien beginnen. Sie kann keine piratierten Eingaben, gescrapte Datensätze unbekannter Herkunft oder gemischte Datensätze heilen, die die Herkunftsanalyse untergraben.

Lizenzierung hingegen ist eine vollständige Verteidigung gegen das Reproduktionsrecht – das Recht, das am stärksten in der KI-Ausbildung betroffen ist. Ein Modell, das auf lizenzierten Daten trainiert wurde, schließt die Schattenbibliotheksstrategie vollständig aus. Es beseitigt die Haftung, die mit unrechtmäßigem Erwerb verbunden ist, bewahrt die Argumente zur fairen Nutzung für transformative Schulungen, erfüllt die Herkunftsanforderungen, die wahrscheinlich unter bundesstaatlichen Standards entstehen werden, und verhindert die Klassenzusammenführung, indem es die zugrunde liegende Verletzung beseitigt.

Ausblick

Der Exekutivbefehl könnte das regulatorische Chaos beseitigen, das durch konkurrierende staatliche Mandate entstanden ist, wird jedoch das Risiko im Zusammenhang mit KI nicht eliminieren. Er wird die Arena verschieben. Mit der nationalen Vorherrschaft wird auch die bundesstaatliche Überwachung zunehmen, und mit dieser Überwachung wird die Abhängigkeit vom Urheberrecht steigen.

Die Stabilität der Branche wird davon abhängen, ob Unternehmen nachweisen können, dass die Grundlage ihrer Modelle auf rechtmäßig erworbenen und lizenzierten Daten basiert.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...