Rechtsstreit um KI: Haftung für ChatGPTs falsche Ratschläge

Der Fall wurde beigelegt, aber ChatGPT dachte anders: Ein Streit, der die rechtliche Haftung von KI definieren könnte

Am 4. März 2026 reichte ein Unternehmen Klage gegen einen KI-Entwickler ein und behauptete, dass die Nutzung des KI-Tools ChatGPT zu einer rechtswidrigen Behauptung und anderen rechtlichen Problemen geführt habe.

Sachverhalt

Die Klägerin hatte zuvor eine Klage wegen langfristiger Invaliditätsleistungen eingereicht, nachdem ihre Ansprüche abgelehnt worden waren. Die Parteien einigten sich und der Fall wurde beigelegt. Ein Jahr später war die Klägerin mit dem Ergebnis unzufrieden und wandte sich an ChatGPT, um ihre Bedenken zu äußern. ChatGPT antwortete, was schließlich zu weiteren rechtlichen Schritten führte.

Die Intervention von ChatGPT

Die Klägerin stellte ChatGPT Fragen zu ihrer Situation und erhielt Antworten, die sie dazu veranlassten, ihre Anwälte zu entlassen und sich selbst zu vertreten. ChatGPT generierte rechtliche Argumente und half bei der Einreichung von Anträgen, einschließlich eines Antrags zur Wiedereröffnung ihres Falls.

Folgen der KI-generierten Klage

Die Klage führte zu zahlreichen weiteren Anträgen und Dokumenten, die alle mit Unterstützung von ChatGPT erstellt wurden. Die Klägerin reichte mehrere Anträge ein, die auf falschen Informationen basierten.

Rechtsgründe

Die Klage gegen den KI-Entwickler umfasst mehrere rechtliche Ansprüche, darunter:

  • Rechtswidrige Beeinträchtigung eines Vertrags: Es wird behauptet, dass ChatGPT die Klägerin dazu ermutigt hat, gegen die Bedingungen ihrer Einigung zu verstoßen.
  • Missbrauch des Verfahrens: Die Vielzahl an Einreichungen wird als Missbrauch des gerichtlichen Verfahrens angesehen, da sie keinen legitimen Zweck verfolgten.
  • Unbefugte Ausübung des Rechts: Dies ist ein neuartiger und beachtenswerter Anspruch, der besagt, dass ChatGPT nicht befugt ist, rechtliche Beratung zu geben.

Gesuchtes Rechtsschutz

Die Klägerin fordert unter anderem Schadensersatz und eine gerichtliche Anordnung, die den KI-Entwickler daran hindert, rechtliche Beratung zu erteilen.

Schlussfolgerung

Dieser Fall könnte wegweisend für die rechtliche Verantwortung von KI-Systemen sein und stellt die Frage, ob und wann eine KI rechtliche Haftung übernehmen kann. Die rechtlichen Vorgaben sollen die Öffentlichkeit und die Integrität des Rechtssystems schützen. Der Ausgang dieses Falls könnte weitreichende Auswirkungen auf die Nutzung von KI in rechtlichen Kontexten haben.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...