Urheberrecht und KI: Fair Use im Fokus

Aus der Schattenbibliothek: Fair Use und KI-Trainingsdaten

Seit der Einführung der ersten großen Sprachmodelle (LLMs) hat eine Welle von Urheberrechtsklagen von Autoren, Musikern und Nachrichtenorganisationen begonnen, die behaupten, dass ihre Werke unrechtmäßig verwendet wurden, um die leistungsfähigsten generativen KI-Tools von heute zu entwickeln. Als Reaktion darauf haben KI-Unternehmen geltend gemacht, dass eine solche Nutzung nicht gegen das Urheberrecht verstößt und als Fair Use angesehen werden kann.

Diese Klagen zielen auf eine Vielzahl von angeblichen Urheberrechtsverletzungen ab. Einige Klagen konzentrieren sich ausschließlich auf die unbefugte Nutzung von Werken als Trainingsdaten, während andere die Fähigkeit des Modells, angeblich verletzende Ausgaben zu generieren, in den Fokus nehmen. Viele Klagen basieren auf beiden Verhaltensweisen.

Rückblick auf Fair Use

Um eine Verletzung nachzuweisen, muss ein Kläger zeigen, dass ein Beklagter ein urheberrechtlich geschütztes Werk in Verletzung eines der exklusiven Rechte eines Urheberrechtsinhabers verwendet hat. Allerdings führt nicht jede unbefugte Nutzung zu einer Haftung. Der Urheberrechtsschutz umfasst bestimmte Einschränkungen, einschließlich Fair Use, die darauf abzielen, kreative Anreize mit dem öffentlichen Interesse in Einklang zu bringen.

Historisch gesehen hat Fair Use technologische Innovationen ermöglicht, bei denen die Reproduktion geschützter Werke für funktionale Entwicklungen erforderlich ist. Gerichte analysieren Fair Use, indem sie vier gesetzliche Faktoren abwägen: (1) den Zweck und die Art der Nutzung, (2) die Natur des ursprünglichen Werkes, (3) den Umfang und die Substantialität des verwendeten Teils und (4) die Marktauswirkungen.

Urteile in Bartz v. Anthropic und Kadrey v. Meta

In den Fällen Bartz v. Anthropic und Kadrey v. Meta war die zentrale Frage, ob die unbefugte Nutzung urheberrechtlich geschützter Werke als „Inputs“ zum Trainieren von KI-Modellen als Fair Use nach dem Urheberrechtsgesetz angesehen werden kann. Beide Urteile deuten auf eine Offenheit hin, selbst unbefugte Nutzung von urheberrechtlich geschützten Werken für das Training generativer KI-Modelle als Fair Use zu betrachten.

Bartz v. Anthropic

Im Fall Bartz v. Anthropic stellte das Gericht fest, dass die Nutzung urheberrechtlich geschützter Werke zum Trainieren eines KI-Modells als Fair Use angesehen werden kann, solange die Werke rechtmäßig beschafft wurden. Das Gericht trennte seine Analyse zwischen dem Training des Modells und der Beibehaltung der Daten.

Die erste Kategorie, das Training des Modells, wurde als „typisch transformativ“ eingestuft, und die Menge der kopierten Inhalte wurde als „besonders angemessen“ für den Zweck des Trainings angesehen. Im Gegensatz dazu ergab die Analyse der Beibehaltung unrechtmäßig beschaffter Kopien, dass jeder Faktor gegen Fair Use sprach.

Kadrey v. Meta

Im Fall Kadrey v. Meta stellte das Gericht ebenfalls fest, dass die unbefugte Reproduktion urheberrechtlich geschützter Werke zum Trainieren eines KI-Modells als Fair Use angesehen werden kann. Obwohl Meta auch raubkopierte Quellen für Teile seiner Trainingsdaten heruntergeladen hatte, wurde der erste Faktor als zugunsten von Fair Use gewertet. Das Gericht stellte fest, dass das Herunterladen als integraler Schritt zum letztendlichen transformierenden Ziel betrachtet werden kann.

Schlussfolgerung und Ausblick

Die beiden Urteile deuten auf einen Trend hin, die Nutzung urheberrechtlich geschützter Werke als Trainingsinputs für generative KI-Modelle als Fair Use zu betrachten. Dennoch bleibt die rechtliche Landschaft ungewiss, da die Art und Weise, wie Trainingsdaten beschafft und verwendet werden, weiterhin zahlreiche Haftungsrisiken birgt. Die jüngsten Urteile und Vorwürfe bieten vorläufige Wegweiser, wie generative KI mit dem Urheberrecht und den gerichtlichen Präzedenzfällen interagiert.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...