Risiken von KI-Halluzinationen vor französischen Gerichten

Die Risiken von Halluzinationen und dem Missbrauch generativer Künstlicher Intelligenz vor französischen Gerichten

Französische Gerichte sehen sich zunehmend mit Halluzinationen konfrontiert, die von Künstlicher Intelligenz (KI) erzeugt werden. Diese äußern sich in Form fehlerhafter Verweise auf Rechtsprechung in den Schriftsätzen der Parteien oder im Missbrauch von KI zur Untermauerung ihrer Ansprüche. Obwohl bis jetzt keine Sanktionen in Frankreich verhängt wurden, können die unverantwortliche oder unangemessene Nutzung von KI dennoch erhebliche Konsequenzen für Anwälte und ihre Mandanten haben.

Die Nutzung von KI im Rechtswesen

In einer Zeit, in der die Nutzung und Funktionalitäten von KI ständig weiterentwickelt werden, ist der Wandel, der aus diesen technologischen Fortschritten resultiert, besonders bei den Akteuren im Rechtssystem sichtbar. Viele rechtliche KI-Tools sind mittlerweile verfügbar, um Vertrags- oder Verfahrensdokumente zu erstellen, Dokumente zu analysieren und zusammenzufassen sowie Rechtsprechung zu recherchieren. Laut einer Umfrage von Wolters Kluwer im Jahr 2026 nutzen über 90 % der Rechtsfachleute mindestens ein KI-Tool in ihrer Tätigkeit.

Vorsicht ist geboten

Es ist jedoch Vorsicht geboten, da niemand vor KI-Halluzinationen geschützt ist. Generative KI-Tools sind oft so programmiert, dass sie die statistisch wahrscheinlichste Antwort selbstbewusst und überzeugend präsentieren, ohne eine nachfolgende Überprüfung vorzunehmen, die weiterhin den Menschen vorbehalten bleibt. Die daraus resultierenden fehlerhaften oder irreführenden Inhalte, wie falsche Verweise auf Rechtsprechung, sind häufig.

Fehlerhafte oder nicht existierende Rechtsverweise

Die Entstehung solcher Rechtsprechung rührt von dem klaren Wunsch der Richter her, vor der Nutzung ungenauer oder nicht existierender Rechtsverweise in den Eingaben der Parteien zu warnen. Dies kann mehrere Fälle abdecken:

  • Wo es keine Rechtsprechung mit der angegebenen Referenznummer gibt
  • Wo das Urteil nicht am angegebenen Datum erlassen wurde
  • Wo der Umfang der Rechtsprechung nicht mit dem Argument in Verbindung steht, für das er angeführt wird

In diesem Kontext kann der Richter die betroffene Partei und/oder deren Anwalt ansprechen und sie einladen, in Zukunft zu „überprüfen, dass die Verweise, die sie in Suchmaschinen oder von Künstlicher Intelligenz gefunden haben, keine ‚Halluzinationen‘ sind.“

Dokumente, die von einem generativen KI-Tool erstellt wurden

Die Gerichte sehen sich auch Anträgen und Eingaben gegenüber, die von generativen KI-Tools verfasst wurden. Verwaltungsgerichte waren die ersten, die von diesem Phänomen betroffen waren, da die Vertretung durch einen Anwalt nicht immer vor den Verwaltungsgerichten erforderlich ist und Antragsteller sich manchmal der Risiken, die mit diesen Tools verbunden sind, nicht bewusst sind.

Richter scheinen jedoch manchmal weniger streng mit Laienantragstellern umzugehen, die KI missbrauchen, wenn sie nicht von einem juristischen Fachmann vertreten werden, der die rechtlichen Inhalte der produzierten Dokumente überprüfen kann.

Folgen der Nutzung generativer KI für die Argumentation des Gerichts

Die Nutzung eines generativen KI-Tools ist an sich nicht strafbar, da es keine gesetzliche Regel gibt, die die Verwendung solcher Tools zur Unterstützung rechtlicher Argumente verbietet. Allerdings können KI-Halluzinationen dazu führen, dass Antragsteller fehlerhafte oder unbegründete Argumente vorbringen, die vom Richter abgelehnt werden. Dies war in mehreren Fällen vor dem Verwaltungsgericht Rennes der Fall, das Anträge zurückgewiesen hat, die „offensichtlich … unter Verwendung eines generativen KI-Tools verfasst wurden,“ weil sie nicht die „notwendigen Details für die Beurteilung des Inhalts bereitstellten.“

Generierte Beweise durch KI

Obwohl die französische Rechtsprechung bisher noch nicht mit Fällen von gefälschten Beweisen, die von KI generiert wurden, konfrontiert war, steigt das Risiko, je raffinierter die generativen KI-Tools werden. Ein Beispiel könnte der Dawes-Fall sein, in dem ein Mandant seinen Anwälten ein gefälschtes Dokument vorlegte, um seine Freisprechung zu erreichen.

Sanktionen gegenüber Anwälten

Bisher haben französische Gerichte keine Sanktionen gegen Anwälte verhängt, die sich auf KI-Halluzinationen in ihren Argumenten verlassen haben, sondern lediglich verlangt, dass sie die in ihren Eingaben zitierten Verweise überprüfen. Dies hat höchstens zu einer einfachen Warnung geführt, ohne finanzielle oder berufliche Konsequenzen.

Im Gegensatz zur US-Rechtsprechung, die auf Regel 11 der Bundesverfahrensordnung zurückgreift, um Anwälte zu sanktionieren, dürfen Anwälte in Frankreich weiterhin auf die nationalen Vorschriften des Anwaltsberufs zurückgreifen. Dazu gehören die Pflichten der Kompetenz, Sorgfalt und Umsicht. Diese Prinzipien implizieren, dass Anwälte, die KI-Systeme verwenden, die Zuverlässigkeit der Ergebnisse überprüfen müssen.

Die französische Anwaltskammer fordert in ihrem Weißbuch über Künstliche Intelligenz zur Vorsicht auf und stellt fest, dass „die berufliche zivilrechtliche Haftung eines Anwalts aufgrund von fehlerhaften Informationen aus KI-Systemen in Anspruch genommen werden kann.“ Anwälte, die KI-Tools nutzen, müssen sich daher bewusst sein, dass sie für die rechtliche Arbeit, die mit Hilfe von KI generiert wird, allein verantwortlich bleiben.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...