Vorsicht vor den „Merkmalen“ von KI: Eine aktuelle Entscheidung des GAO als Warnung für Antragsteller
Für besser oder schlechter transformiert künstliche Intelligenz (KI) die Rechtsbranche. Das Government Accountability Office (GAO) hat kürzlich eine Entscheidung getroffen, in der auf drei Seiten Warnungen ausgesprochen werden, welche Strafen gegen den Antragsteller und dessen Rechtsbeistand für falsche Zitationen verhängt werden könnten. Diese Entscheidung dient als eindringliche Erinnerung, dass KI, obwohl sie ein nützliches Werkzeug sein kann, auch ernsthafte berufliche und rechtliche Risiken birgt, wenn sie ohne angemessene Aufsicht eingesetzt wird.
Die Entscheidung von Bramstedt
Bramstedt Surgical Inc. reichte eine Protesteinreichung ein, in der behauptet wurde, dass das Ministerium für Veteranenangelegenheiten (VA) es direkt über die Möglichkeit, an einem Wettbewerb teilzunehmen, hätte informieren sollen, obwohl die Ausschreibung ordnungsgemäß auf SAM.gov veröffentlicht wurde. Das GAO wies den Protest ab, da er keine rechtlich ausreichende Grundlage darlegte. Besonders auffällig war jedoch die Tatsache, dass der Antragsteller rechtliche Autoritäten zitiert hatte, die schlichtweg nicht existierten.
Die letzten drei Seiten der GAO-Entscheidung widmen sich ausschließlich den Zitationen, die „die Merkmale“ von KI-generierten rechtlichen Autoritäten aufwiesen. Das GAO stellte fest, dass der Protest offenbar auf einem „großen Sprachmodell oder einer anderen künstlichen Intelligenz“ beruhte, ohne dass die generierten Ergebnisse auf ihre Genauigkeit überprüft wurden. Diese Entscheidung ist eine deutliche Warnung, dass zukünftige Einreichungen mit gefälschten rechtlichen Autoritäten zu Sanktionen führen können.
Schlüsselfaktoren und Risiken der Nutzung von KI für Angebotsproteste
Die Rechtsbranche integriert zunehmend KI in Forschung, Entwurf und Analyse. Verantwortungsbewusst eingesetzt, können diese Werkzeuge die Effizienz verbessern und den Zugang zu Informationen erweitern. KI ist jedoch nur ein Schritt auf dem Weg zur richtigen Antwort und kein Ersatz für fundiertes juristisches Urteilsvermögen. KI liefert häufig falsche Informationen, weshalb Protestanten und Anwälte sich nicht auf die Ausgaben von KI verlassen können, ohne deren Genauigkeit zu überprüfen.
Das GAO wies darauf hin, dass drei Hauptgefahren bestehen:
- KI kann „halluzinierte“ Zitationen erzeugen: Große Sprachmodelle können überzeugende, aber völlig fiktive Zitationen zu rechtlichen Autoritäten produzieren. Ohne eine menschliche Überprüfung jeder Zitation kann es leicht zu Fehlern kommen.
- Gerichte und Verwaltungsbehörden beobachten: Richter und Verwaltungsstellen werden zunehmend wachsam gegenüber KI-generierten Einreichungen. Es ist vorstellbar, dass die Geduld des GAO bald nachlassen könnte und dass es bereitwilliger Sanktionen verhängen wird.
- Klienten könnten die Konsequenzen tragen: Potenzielle Strafen für Anwälte, die auf KI-Halluzinationen verweisen, sind vielfältig. Der Antragsteller leidet ebenfalls unter den Folgen, unabhängig davon, wo der Fehler auftritt.
KI im Gespräch mit Ihrem Anwalt
Antragsteller sollten KI nicht fürchten, aber sie sollten verstehen, wie ihr rechtliches Team sie einsetzt. Eine seriöse Kanzlei wird transparent über ihre Prozesse sein und erklären können, wie sie solche Fehler vermeidet. Fragen, die Sie Ihrem Rechtsbeistand stellen sollten, sind:
- Haben Sie KI-Werkzeuge in der juristischen Recherche oder im Entwurf eingesetzt?
- Welche Sicherheitsvorkehrungen haben Sie, um die Genauigkeit sicherzustellen?
- Wie überprüfen Sie Zitationen, Fakten und rechtliche Autoritäten, die von KI generiert werden?
- Haben Sie interne Richtlinien zur Nutzung von KI?
Die Entscheidung des GAO ist keine Verurteilung von KI, sondern eine Erinnerung, dass Antragsteller und deren Anwälte Technologie verantwortungsbewusst nutzen müssen. Ihr Anwalt sollte in der Lage sein, diese Fragen zu beantworten und Ihnen das Vertrauen zu geben, dass alle von KI generierten Inhalte überprüft werden.