Der Fall wurde beigelegt, aber ChatGPT dachte anders: Ein Streit, der die rechtliche Haftung von KI definieren könnte
Am 4. März 2026 reichte ein Unternehmen Klage gegen einen KI-Entwickler ein und behauptete, dass die Nutzung des KI-Tools ChatGPT zu einer rechtswidrigen Behauptung und anderen rechtlichen Problemen geführt habe.
Sachverhalt
Die Klägerin hatte zuvor eine Klage wegen langfristiger Invaliditätsleistungen eingereicht, nachdem ihre Ansprüche abgelehnt worden waren. Die Parteien einigten sich und der Fall wurde beigelegt. Ein Jahr später war die Klägerin mit dem Ergebnis unzufrieden und wandte sich an ChatGPT, um ihre Bedenken zu äußern. ChatGPT antwortete, was schließlich zu weiteren rechtlichen Schritten führte.
Die Intervention von ChatGPT
Die Klägerin stellte ChatGPT Fragen zu ihrer Situation und erhielt Antworten, die sie dazu veranlassten, ihre Anwälte zu entlassen und sich selbst zu vertreten. ChatGPT generierte rechtliche Argumente und half bei der Einreichung von Anträgen, einschließlich eines Antrags zur Wiedereröffnung ihres Falls.
Folgen der KI-generierten Klage
Die Klage führte zu zahlreichen weiteren Anträgen und Dokumenten, die alle mit Unterstützung von ChatGPT erstellt wurden. Die Klägerin reichte mehrere Anträge ein, die auf falschen Informationen basierten.
Rechtsgründe
Die Klage gegen den KI-Entwickler umfasst mehrere rechtliche Ansprüche, darunter:
- Rechtswidrige Beeinträchtigung eines Vertrags: Es wird behauptet, dass ChatGPT die Klägerin dazu ermutigt hat, gegen die Bedingungen ihrer Einigung zu verstoßen.
- Missbrauch des Verfahrens: Die Vielzahl an Einreichungen wird als Missbrauch des gerichtlichen Verfahrens angesehen, da sie keinen legitimen Zweck verfolgten.
- Unbefugte Ausübung des Rechts: Dies ist ein neuartiger und beachtenswerter Anspruch, der besagt, dass ChatGPT nicht befugt ist, rechtliche Beratung zu geben.
Gesuchtes Rechtsschutz
Die Klägerin fordert unter anderem Schadensersatz und eine gerichtliche Anordnung, die den KI-Entwickler daran hindert, rechtliche Beratung zu erteilen.
Schlussfolgerung
Dieser Fall könnte wegweisend für die rechtliche Verantwortung von KI-Systemen sein und stellt die Frage, ob und wann eine KI rechtliche Haftung übernehmen kann. Die rechtlichen Vorgaben sollen die Öffentlichkeit und die Integrität des Rechtssystems schützen. Der Ausgang dieses Falls könnte weitreichende Auswirkungen auf die Nutzung von KI in rechtlichen Kontexten haben.