Urteil zu OpenAI: Schutz der anwaltlichen Kommunikation im Urheberrechtsstreit

IP Hot Topic: Privileg bleibt bestehen – OpenAI entgeht der Offenlegungspflicht von Anwaltkommunikationen in großem Urheberrechtsstreit

In einem Urteil mit erheblichen Auswirkungen für KI-Unternehmen, die sich in Urheberrechtsstreitigkeiten befinden, zog ein Bundesrichter im Verfahren gegen OpenAI eine klare Grenze zwischen der Leugnung von Fehlverhalten und der Offenlegung privilegierter Rechtsberatungen. Die Entscheidung gibt Beklagten einen Fahrplan, wie sie die Anwalt-Client-Kommunikation schützen können, während sie Vorwürfe der vorsätzlichen Verletzung abwehren.

Hintergrund

Im April 2025 bündelte das US-Gericht für multidistriktliche Verfahren zwölf Urheberrechtsklagen gegen OpenAI zu einem einzigen Verfahren im Southern District of New York. Die Klagen basieren auf der Behauptung, dass urheberrechtlich geschützte Werke – darunter Bücher, Nachrichtenartikel und Video-Transkripte – ohne Zustimmung zur Trainingsbasis der großen Sprachmodelle verwendet wurden.

Vor Beginn der Rechtsstreitigkeiten hatte OpenAI die Trainingsdatensätze „Books1“ und „Books2“ gelöscht, welche aus raubkopierten Büchern der Library Genesis erstellt worden waren. OpenAI gab als Grund für die Löschung „Nichtnutzung“ an. Als die Kläger Auskunft über die Gründe forderten, berief sich OpenAI auf das Anwalt-Client-Privileg.

Das Urteil des Magistratsrichters im November 2025

Am 24. November 2025 entschied der Magistratsrichter, dass OpenAI das Anwalt-Client-Privileg bezüglich der Kommunikation zur Löschung der Datensätze „Books1“ und „Books2“ aufgegeben hatte. Der Richter begründete dies mit drei Punkten: (1) OpenAI hatte die Position vertreten, dass alle Gründe für die Löschung privilegiert seien, und damit einen privilegierten Grund („Nichtnutzung“) freiwillig offengelegt; (2) OpenAI machte seine Privilegienbehauptungen uneinheitlich und beweglich; (3) OpenAI stellte seinen guten Glauben und Geisteszustand infrage, indem es Vorwürfe der vorsätzlichen Verletzung bestritt.

Die Anordnung von Februar 2026

Am 6. Februar 2026 hob ein Richter die Anordnung des Magistratsrichters vollständig auf und bestätigte die Einwände von OpenAI. Er stellte klar, dass OpenAIs Aussage zur Löschung der Datensätze „aufgrund von Nichtnutzung“ keine rechtlichen Ratschläge beinhaltet und daher nicht privilegiert ist. Die Offenlegung solcher Fakten löst keinen Verzicht auf das Privileg aus.

Die Entscheidung betonte, dass OpenAI sein Privileg hinsichtlich der Kommunikation zur Löschung konsistent aufrechterhalten habe. Zwar wurden spätere Formulierungen von OpenAI als „ungeschickt“ bezeichnet, jedoch rechtfertigten diese keine Aufhebung des Privilegs.

Der Richter wies auch zurück, dass allein die Leugnung vorsätzlicher Verletzung eine „in Fragestellung“ des Privilegs darstelle. Es wurde klargestellt, dass die bloße Leugnung von Vorsatz nicht dasselbe ist wie die Behauptung eines guten Glaubens. Eine Aufhebung des Privilegs erfordert, dass die Partei sich auf privilegierte Rechtsberatung beruft, um ihre Verteidigung zu stützen.

Schlussfolgerungen

  1. Die Offenlegung von Fakten führt nicht zur Aufhebung des Privilegs über damit verbundene rechtliche Ratschläge. Eine Partei kann beschreiben, was sie getan hat, ohne das Privileg über die Kommunikation, die die Gründe erläutert, aufzugeben.
  2. Die Leugnung von Vorsatz ist nicht gleichzusetzen mit der Behauptung von gutem Glauben. Beklagte im KI-Bereich können sich gegen Vorsatzvorwürfe wehren, ohne eine priviligienaufhebende Behauptung des guten Glaubens aufstellen zu müssen.
  3. Präzise und konsistente Privilegienbehauptungen sind entscheidend. Das Gericht wies auf „ungeschickte“ Formulierungen von OpenAI hin und empfiehlt, Privilegienpositionen von Anfang an klar zu formulieren.
  4. Strategien im Umgang mit Vorsätzlichkeit bergen hohe Risiken in Urheberrechtsfällen mit KI. Die gesetzlichen Schadenersatzhöhen variieren zwischen 200 USD bei unschuldiger Verletzung und bis zu 150.000 USD bei vorsätzlicher Verletzung. Die Unterscheidung zwischen Leugnung und der Behauptung eines guten Glaubens hat erhebliche Auswirkungen auf Privilegien und Haftung.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...