Lex Algorithmi, Lex Imperfecta? Die Grenzen der rechtlichen Übersetzung im EU KI-Gesetz
Die Technologie und das Recht bewegen sich oft nicht im gleichen Tempo. Doch Künstliche Intelligenz (KI) und insbesondere algorithmische Entscheidungssysteme bringen eine noch komplexere Dimension in die Gleichung. Diese Systeme sind sozialtechnisch; sie verarbeiten nicht nur Daten, sondern kodieren auch soziale Normen, politische Annahmen, institutionelle Regeln und manchmal sogar unbeabsichtigte Vorurteile. Wenn das Recht versucht einzugreifen, reguliert es nicht nur den Code; es navigiert durch Werte, Strukturen und Machtverhältnisse.
In der Rechtstheorie gibt es einen Begriff für die Herausforderung, große Ideen in tatsächliches Recht umzusetzen: translatio iuris — die Übersetzung von Prinzipien in durchsetzbare Regeln. Das EU KI-Gesetz wird als ein bahnbrechender legislatorischer Schritt angesehen und ist ein perfektes Fallbeispiel dafür, wie schwierig diese Übersetzung sein kann. Es ist eine Sache zu sagen, dass wir „vertrauenswürdige KI“, „nicht diskriminierende Systeme“ und „menschenzentriertes Design“ wollen, aber etwas ganz anderes, dies konkret zu definieren, wenn es um Systemaudits, algorithmische Transparenz oder grenzüberschreitende Compliance geht.
Die Übersetzungslücke
Beim Lesen des EU KI-Gesetzes oder breiterer Rahmenwerke wie den OECD-KI-Prinzipien oder den KI-Ethischen Richtlinien der UNESCO ist es leicht, von der Ambition beeindruckt zu sein. Wörter wie Transparenz, Fairness, Rechenschaftspflicht und nicht-manipulative Systeme erscheinen häufig. Aber was bedeuten sie konkret, wenn Ingenieure sich hinsetzen, um ein Modell zu erstellen, oder wenn Regulierungsbehörden entscheiden müssen, ob ein KI-Werkzeug eine rechtliche Grenze überschreitet?
Hier wird die Idee der translatio iuris zentral. Hohe ethische Ideale müssen in operationale, technische und rechtlich durchsetzbare Mechanismen umgewandelt werden. Die Schwierigkeit besteht darin, dass KI-Systeme nicht nur handeln; sie strukturieren Entscheidungen. Sie filtern, empfehlen, bewerten und prognostizieren. Dabei verändern sie die Kontexte, die die Gesetze regeln wollen.
Die Herausforderung wird strukturell, denn diese Systeme sind nicht nur Werkzeuge, sondern Entscheidungsinfrastrukturen mit sozialtechnischen Eigenschaften. Sie verkörpern Werturteile, institutionelle Interessen und unsichtbare Annahmen. Um die Herausforderung der rechtlichen Übersetzung zu organisieren, habe ich sie in die folgende Tabelle skizziert.
Von Ex Ante zu Ex Post
Das Recht befasst sich nicht nur mit Inhalten, sondern auch mit der Zeit. Rechtssysteme regulieren oft durch eine Mischung aus ex ante (vor der Tatsache) und ex post (nach der Tatsache) Anforderungen. Diese Struktur ist besonders wichtig in der KI-Governance, wo Risiken probabilistisch, undurchsichtig oder erst nach der Bereitstellung sichtbar sein können. Das EU KI-Gesetz folgt dieser klassischen regulatorischen Architektur.
A. Ex Ante Anforderungen
Diese sind präventiver Natur. Die Idee ist, Schäden zu antizipieren, bevor sie auftreten, indem Schutzmaßnahmen in den Entwurf, die Entwicklung und den Einsatzprozess eingebettet werden. Dazu gehören:
- Risikoklassifizierung unter Titel III des Gesetzes;
- Datenverwaltung (Art. 10);
- Transparenzpflichten (Art. 13);
- Menschliche Aufsicht Mechanismen (Art. 14);
- Konformitätsbewertungen und CE-Kennzeichnung (Art. 19–20).
Diese Verpflichtungen fungieren als Filter, um sicherzustellen, dass nur Systeme, die vordefinierte Schwellenwerte erfüllen, auf den Markt kommen. Sie spiegeln das Prinzip der lex specialis wider — gezielte Regeln, die allgemeinere Regeln (lex generalis) in Hochrisikokontexten übersteuern.
B. Ex Post Mechanismen
Sobald ein System in Betrieb ist, tritt ein weiteres Set von Mechanismen in Kraft — Audits, Überwachung der realen Leistung, Beschwerdemanagement und Durchsetzungsmaßnahmen. Diese sind darauf ausgelegt:
- Schäden oder rechtliche Verstöße zu erkennen, die während der Entwicklung übersehen wurden;
- Wiedergutmachung und Korrektur zu ermöglichen (z.B. Artikel 71 Durchsetzungsmacht);
- Risikoklassifikationen basierend auf tatsächlicher Nutzung und Kontextveränderungen zu aktualisieren.
Diese Spannungen weisen auf ein tieferes Problem hin: technische Systeme passen nicht nahtlos zur rechtlichen Kausalität. Während das Recht oft nach Intention, Verantwortung und Schaden sucht, operieren Algorithmen durch statistische Inferenz, Mustererkennung und Rückkopplungsschleifen. Das Ergebnis ist, was einige als Verantwortungslücke bezeichnen.
Governing in the Age of Algorithmic Drift
Während Gesetzgeber versuchen, sich schnell entwickelnde Technologien in stabile Kategorien zu lenken, sind wir Zeugen eines dynamischeren Prozesses als nur eines regulatorischen Nachholens. Was auf dem Spiel steht, ist die Frage, ob Rechtssysteme intelligibel und autoritativ bleiben können in einer Landschaft, die durch Fluidität, Abstraktion und Delegation geprägt ist.
Dies geht über die Regulierung hinaus; es handelt sich um Epistemologie. KI-Systeme verwischen die Grenzen zwischen Handlung und Delegation, zwischen Akteur und Werkzeug. Sie produzieren Entscheidungen, die in der Theorie nachverfolgbar sind, in der Praxis jedoch oft zu komplex, zu undurchsichtig oder zu emergent für eine einfache Attribution.
A. Iterative Legalität
Dies bringt uns zur Idee der iterativen Legalität, einem Ansatz, bei dem das Recht nicht als einmaliger Kodifizierungsakt, sondern als lebendiger Rahmen betrachtet wird, der im Laufe der Zeit lernen, sich anpassen und neu gerechtfertigt werden muss. Das EU KI-Gesetz deutet in diese Richtung mit Bestimmungen für die Überwachung nach dem Markt, ex post Audits und adaptive Standards. Aber selbst diese sind durch die Präferenz der rechtlichen Tradition für Abschluss begrenzt.
B. Von Regeln zu Reflexivität
Am Ende ist vielleicht die wichtigste Lektion nicht, welches lateinische Maxim zu zitieren oder welches Durchsetzungslücken zu schließen ist. Es geht um die Notwendigkeit einer reflexiven Governance, Regeln, die nicht nur durchsetzbar, sondern auch anfechtbar sind. Mechanismen, die es erleichtern, Entscheidungen im Laufe der Zeit herauszufordern, zu erklären oder anzupassen.