Gerichtsurteil: KI-Kommunikationen sind nicht geschützt

Gericht entscheidet: KI-Gespräche sind nicht privilegiert

Am 13. Februar 2026 hat ein Richter des US-Bezirksgerichts für den südlichen Bezirk von New York ein Urteil veröffentlicht, das sich mit der Frage beschäftigt, ob Nicht-Anwalt-Kommunikationen mit einer generativen KI-Plattform durch das Anwaltsgeheimnis oder die Arbeitserzeugnisdoktrin geschützt sind. Der Richter entschied, dass dies nicht der Fall ist.

Auswirkungen der Entscheidung

Die Entscheidung hat zwei unmittelbare Auswirkungen für alle, die KI-Tools wie ChatGPT oder ähnliche Plattformen in rechtlichen oder regulatorischen Angelegenheiten nutzen:

Erstens stellte der Richter fest, dass Kommunikationsinhalte mit KI-Tools definitionsgemäß keine Anwalts-Klienten-Kommunikationen sind, da KI-Tools keine Anwaltslizenzen besitzen. Daher unterliegen diese nicht dem Anwaltsgeheimnis oder dem Schutz der Arbeitserzeugnisse.

Zweitens wird auch der privilegierte Status anderer Kommunikation verloren gehen, wenn diese mit öffentlichen KI-Tools geteilt wird.

Der Fall

Im Fall United States v. Heppner nutzte der Angeklagte, ein leitender Angestellter, eine öffentlich verfügbare KI, um seine rechtliche Situation zu analysieren und Verteidigungsstrategien zu entwickeln, ohne seine Anwälte um Rat zu fragen. Während einer Durchsuchung der Wohnung des Angeklagten beschlagnahmte das FBI Dokumente, die diese KI-Gespräche festhielten. Heppner beantragte, diese Dokumente auszuschließen, da er glaubte, sie seien durch das Anwaltsgeheimnis geschützt. Der Richter wies beide Argumente zurück.

Wesentliche Feststellungen

Das Gericht stellte fest, dass Kommunikationen mit einem KI-Chatbot aus mehreren Gründen nicht durch das Anwaltsgeheimnis geschützt sind:

KI ist kein Anwalt. Die KI kann keine Anwalts-Klienten-Beziehung zu einem Nutzer aufbauen. Kommunikationen zwischen zwei Nicht-Anwälten über rechtliche Fragen sind einfach nicht privilegiert, egal wie ausgeklügelt oder genau der Austausch sein mag.

Keine angemessene Erwartung an Vertraulichkeit. Die Datenschutzrichtlinie des Unternehmens, die jeder Nutzer akzeptiert, besagt, dass das Unternehmen die Eingaben der Nutzer sammelt und diese Daten zu Trainingszwecken verwendet.

Einbringung privilegierter Informationen hebt das Privileg auf. Das Eingeben von rechtlichem Rat in ein öffentliches KI-Tool ist dasselbe wie die Offenlegung an einen Dritten und hebt das Privileg über die zugrunde liegende Kommunikation auf.

Privileg kann nicht nachträglich geschaffen werden. Selbst wenn die Vorschläge der KI für die Anwälte gedacht waren, werden nicht privilegierte Kommunikationen nicht privilegiert, wenn sie mit den Anwälten geteilt werden.

Schutz von Arbeitsprodukten

Das Gericht wies auch das Argument des Angeklagten zurück, dass es sich um geschützte Arbeitsprodukte handele:

Keine Anwaltsanweisung. Der Schutz von Arbeitsprodukten gilt nur für Materialien, die von oder auf Anweisung eines Anwalts erstellt wurden. Materialien, die eine Partei eigenständig vorbereitet, auch wenn sie zweifellos im Hinblick auf eine Rechtsstreitigkeit erstellt wurden, qualifizieren sich nicht dafür.

Beeinflussung der Strategie ist nicht gleichbedeutend mit der Reflexion der Strategie. Dass die Dokumente die Verteidigungsstrategie der Anwälte beeinflusst haben, war nicht ausreichend; die Dokumente mussten die Strategie des Anwalts zum Zeitpunkt ihrer Erstellung widerspiegeln.

Wichtige Erkenntnisse

Niemand sollte privilegierte Informationen in öffentliche KI-Tools eingeben. Kommunikationen mit einem Anwalt, Litigation-Strategien und sensible Dokumente sollten niemals in öffentliche KI-Plattformen eingegeben werden. Alles, was eingegeben wird, könnte entdeckt und gegen die Person verwendet werden.

Es ist wichtig, dass Unternehmen und interne Anwälte Richtlinien für die Nutzung von KI-Tools implementieren oder aktualisieren, um die Risiken zu minimieren, die mit der Eingabe vertraulicher Informationen in öffentliche Plattformen verbunden sind.

Fazit

Der Fall Heppner ist eine bahnbrechende Entscheidung, deren Argumentation voraussichtlich auch in Zukunft von anderen Gerichten übernommen wird. Generative KI-Tools sind mächtig, aber öffentliche Versionen sind keine vertraulichen Kanäle, und selbst private Versionen bieten keinen Schutz für Nicht-Anwälte. Jeder, der in rechtliche Angelegenheiten involviert ist, sollte diese Plattformen entsprechend behandeln und Schritte unternehmen, um privilegierte und vertrauliche Informationen zu schützen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...