Über Regulierung hinaus: Was 500 Fälle über die Zukunft von KI in den Gerichten offenbaren
Die Regulierung von künstlicher Intelligenz (KI) ist weltweit uneinheitlich. Während einige Jurisdiktionen bereits umfassende Vorschriften erlassen haben, konzentrieren sich andere nur auf branchenspezifische Regeln oder zögern die Regulierung ganz hinaus. Ein Beispiel dafür ist der kürzlich verabschiedete AI Act der Europäischen Union, der ein horizontales, risikobasiertes Modell bietet, das sich über Sektoren und Technologien erstreckt. Im Gegensatz dazu besteht in den Vereinigten Staaten Widerstand gegen verbindliche Gesetze, einschließlich Forderungen nach einem Moratorium für staatliche KI-Regulierungen, das über ein Jahrzehnt andauern könnte.
Diese Dynamiken haben das globale Gespräch über KI-Governance geprägt, indem sie die Gesetzgebung und die Gestaltung von politischen Maßnahmen in den Vordergrund rücken. Diese Betonung verschleiert jedoch eine kritische und oft übersehene Tatsache: Die Gerichte regulieren bereits KI. Weltweit lösen Richter, Datenschutzbehörden und Verwaltungsgerichte aktiv Streitigkeiten, in denen KI-Systeme eine zentrale Rolle spielen, sei es bei automatisierten Einwanderungsentscheidungen, biometrischer Überwachung oder der Datenverarbeitung für das Training von Modellen. Dabei schaffen sie de facto Regeln, Grenzen und Präzedenzfälle, die direkt beeinflussen, wie KI-Technologien entwickelt, eingesetzt und angefochten werden.
Das Projekt „AI on Trial“
Dieser Artikel präsentiert Erkenntnisse aus dem Projekt „AI on Trial“, einem ursprünglichen empirischen Projekt, das darauf abzielt, dieses übersehene Gebiet sichtbar zu machen. Das Projekt verfolgt und katalogisiert Rechtsstreitigkeiten im Zusammenhang mit KI-Technologien in verschiedenen Jurisdiktionen und hebt die Rolle hervor, die gerichtliche und administrative Stellen als normative Akteure in der Governance von KI spielen.
Die aktuelle Version des Datensatzes von „AI on Trial“ umfasst 500 Fälle aus 39 Ländern und Jurisdiktionen, die sowohl gerichtliche Entscheidungen als auch Verwaltungsurteile beinhalten. Diese Fälle stammen aus einer Vielzahl von Rechtsbereichen und betreffen Akteure, die von Privatpersonen und Unternehmen bis hin zu Regierungsbehörden und transnationalen Plattformen reichen. Um in den Datensatz aufgenommen zu werden, muss ein Fall eine direkte oder erheblich signifikante Nutzung von KI beinhalten, anstatt nur erwähnt zu werden. Jeder Fall wurde manuell nach Jurisdiktion, Gericht oder Verwaltungsbehörde, KI-bezogenem Thema (z. B. Bias, Transparenz, IP usw.) und Jahr klassifiziert und kodiert. Eine kurze Zusammenfassung des Falls und Auszüge der Hauptentscheidungen wurden ebenfalls annotiert.
Hauptstreitigkeiten in der KI-Governance
Über die 500 Fälle, die im Datensatz von „AI on Trial“ analysiert wurden, konzentrieren sich drei Themenkategorien auf 39,4 % aller Streitigkeiten: Fälle, die den Rechtsberuf betreffen (92 Fälle), geistiges Eigentum (56 Fälle) und die administrative Nutzung von KI (49 Fälle). Diese Kategorien sind nicht nur quantitativ dominant; sie stellen die sichtbarsten Reibungspunkte zwischen KI-Systemen und den rechtlichen Rahmenbedingungen dar, die versuchen, sie zu regulieren.
Das Wachstum von Rechtsstreitigkeiten im Bereich des Rechtsberufs ist besonders auffällig. Von nur drei aufgezeichneten Fällen im Jahr 2021 stieg die Zahl auf 32 im Jahr 2024, wobei bereits 28 weitere Fälle zu Beginn des Jahres 2025 dokumentiert wurden. Diese Fälle betreffen sowohl die Nutzung von KI durch juristische Akteure als auch deren Zitierung in gerichtlichen Überlegungen. Ein klares Beispiel ist „Ross v. United States“ (2025), in dem das DC Court of Appeals OpenAI’s ChatGPT sowohl in Mehrheits- als auch in abweichenden Meinungen zitierte, um das Konzept des „allgemeinen Wissens“ in einem Fall von Tierquälerei zu interpretieren. In Brasilien reichte ein Anwalt eine Petition ein, die 43 gefälschte Präzedenzfälle enthielt, die von einem generativen KI-Modell halluciniert wurden, was zur Abweisung des Falls und einer disziplinarischen Untersuchung führte.
Streitigkeiten im Bereich des geistigen Eigentums
Auch die Streitigkeiten im Bereich des geistigen Eigentums haben zugenommen. Von weniger als fünf Fällen jährlich vor 2022 erreichte die Zahl 2024 einen Höhepunkt mit 27 Fällen, was hauptsächlich mit dem Aufstieg generativer KI verbunden ist. Diese Streitigkeiten betreffen häufig Ansprüche, dass Trainingsdaten ohne Genehmigung gesammelt wurden, wodurch Urheberrechte oder moralische Rechte verletzt wurden. In „Getty Images v. Stability AI“, das derzeit in mehreren Jurisdiktionen anhängig ist, argumentieren die Kläger, dass die Nutzung von Millionen urheberrechtlich geschützten Bildern im Modelltraining gegen das IP-Recht verstößt.
Administrative Nutzung von KI
Die administrative Nutzung von KI stellt einen länger bestehenden, aber nicht weniger wichtigen Bereich der Rechtsstreitigkeiten dar. Fälle in dieser Kategorie reichen bis ins Jahr 2014 zurück, sahen jedoch zwischen 2019 und 2023 einen signifikanten Anstieg, der 2023 mit 13 Fällen seinen Höhepunkt erreichte. Diese betreffen häufig die Automatisierung öffentlicher Dienstleistungen, wie beispielsweise Einwanderung, Sozialleistungen oder die Durchsetzung von Vorschriften. In „Haghshenas v. Canada“ (2023) stellte der Beschwerdeführer die Ablehnung eines Visums in Frage, die durch das Tool Chinook beeinflusst wurde, das zur Rationalisierung des Einwanderungsprozesses verwendet wird. Während das Gericht den Prozess auf der Grundlage bestätigte, dass ein menschlicher Beamter die endgültige Entscheidungsgewalt behielt, offenbarte der Fall die Unklarheit hybrider Entscheidungsfindung und die Schwierigkeit, die Verantwortlichkeit in Systemen zu bestimmen, in denen Menschen stark auf maschinell generierte Zusammenfassungen angewiesen sind.
Schlussfolgerung
Diese Trends zeigen nicht nur, wo Rechtsstreitigkeiten stattfinden, sondern auch, wie die Justizsysteme in die vordersten Reihen der KI-Governance gezogen werden. In jeder der drei führenden Kategorien reagieren die Gerichte nicht nur auf Schäden; sie schaffen neue rechtliche Grenzen für aufkommende Technologien und definieren, was als fairer Prozess oder rechtmäßige Innovation gilt, in Kontexten, in denen frühere rechtliche Leitlinien oft unklar oder nicht existent sind. Um KI auf eine Weise zu regeln, die die sozialen Realitäten widerspiegelt, und nicht nur abstrakte Prinzipien, können wir es uns nicht leisten, den Gerichtssaal als Fußnote zu behandeln. Das Recht spricht bereits. Die Aufgabe besteht nun darin, sorgfältig zuzuhören und sicherzustellen, dass seine Urteile Teil des Gesprächs sind, das wir über die Zukunft von Technologie und Demokratie aufbauen.