Falsches Vertrauen in den EU-KI-Act: Epistemische Lücken und bürokratische Fallen

A False Confidence in the EU AI Act: Epistemic Gaps and Bureaucratic Traps

Am 10. Juli 2025 veröffentlichte die Europäische Kommission den endgültigen Entwurf des Allgemeinen Kodex für Künstliche Intelligenz (GPAI), ein „Kodex, der der Industrie helfen soll, die Regeln des AI Acts einzuhalten“. Der Kodex wird seit Oktober 2024 entwickelt, nachdem der iterative Entwurfsprozess im September 2024 begann. Die Kommission hatte ursprünglich geplant, den endgültigen Entwurf bis zum 2. Mai 2025 zu veröffentlichen, doch die anschließende Verzögerung weckte weit verbreitete Spekulationen – von Bedenken hinsichtlich Industrielobbying bis hin zu tiefergehenden, ideologischen Spannungen zwischen Befürwortern von Innovation und Regulierung.

Die rechtliche Erfindung von allgemeiner Künstlicher Intelligenz

Laut Art. 3(63) des EU AI Acts ist ein “allgemeines KI-Modell”:

„ein KI-Modell, das, auch wenn es mit einer großen Menge an Daten unter Verwendung von Selbstüberwachung in großem Maßstab trainiert wurde, eine bedeutende Allgemeinheit aufweist und in der Lage ist, kompetent eine Vielzahl unterschiedlicher Aufgaben unabhängig davon auszuführen, wie das Modell auf den Markt gebracht wird und das in eine Vielzahl von nachgelagerten Systemen oder Anwendungen integriert werden kann, mit Ausnahme von KI-Modellen, die für Forschungs-, Entwicklungs- oder Prototyping-Aktivitäten verwendet werden, bevor sie auf den Markt kommen.“

Was der Act hier beschreibt, entspricht dem, was die KI-Forschungsgemeinschaft als Grundlagenmodell bezeichnet – ein Begriff, der, obwohl nicht perfekt, weit verbreitet verwendet wird, um groß angelegte Modelle zu beschreiben, die auf breiten Datensätzen trainiert werden, um mehrere Aufgaben zu unterstützen. Beispiele für solche Grundlagenmodelle sind die ChatGPT-Serie von OpenAI, Microsofts Magma, Googles Gemini und BERT.

Der Begriff “allgemeine Künstliche Intelligenz” (GPAI) entstand jedoch nicht innerhalb der KI-Forschungsgemeinschaft. Es handelt sich um eine rechtliche Konstruktion, die durch den EU AI Act eingeführt wurde, um bestimmte Arten von KI-Systemen rückblickend zu definieren. Der Act verleiht dem Begriff nicht nur eine regulatorische Bedeutung, sondern schafft auch eine neue Kategorie, die das Verständnis und die Entwicklung solcher Systeme in der Praxis gefährden könnte.

Die Grenzen eines risikobasierten Rahmens

Der EU AI Act verfolgt einen risikobasierten Regulierungsansatz. Artikel 3(2) definiert Risiko als „die Kombination der Wahrscheinlichkeit des Eintretens eines Schadens und der Schwere dieses Schadens“. Diese Definition entstammt klassischen rechtlichen und versicherungsmathematischen Traditionen, in denen angenommen wird, dass Schäden vorhersehbar sind und Wahrscheinlichkeiten vernünftig zugewiesen werden können.

Die Grundlagenmodelle sind jedoch durch Merkmale gekennzeichnet, die schwer zu quantifizieren sind, einschließlich ihrer probabilistischen und augmentativen Natur und ihrer Interaktion mit komplexen sozio-technischen Umgebungen, in denen Schäden nicht klar vorhergesagt werden können. Infolgedessen sind traditionelle Risikobewertungsansätze nicht in der Lage, ihr Verhalten oder ihre Auswirkungen adäquat zu berücksichtigen, was ein falsches Gefühl von Sicherheit für die Regulierungsbehörden erzeugen kann.

Der bürokratische Fallstrick der rechtlichen Sicherheit

Die Analyse von Max Weber zur Bürokratie hilft zu erklären, warum die oben erwähnte Diskrepanz zwischen den Annahmen, die in rechtlichen Instrumenten eingebettet sind, und den Realitäten der Technologien zu erwarten war. Weber beschrieb Bürokratie als ein „eisernes Käfig“ der Rationalisierung, das auf formalen Regeln, Hierarchien und kategorischer Klarheit beruht.

Die präzisen Definitionen des EU AI Acts, wie etwa die für „Anbieter“ (Art. 3(3)), „Bereitsteller“ (Art. 3(4)) und insbesondere „allgemeines KI-Modell“ (Art. 3(63)), spiegeln diese bürokratische Logik wider. Wie Weber warnte, kann diese Form der Rationalität zu übermäßig starren und formalisierten Denkweisen führen.

Die Lehre hieraus ist, dass der Act das Risiko birgt, die Paradigmen von gestern in die Welt von morgen zu legislieren. Anstatt die Regulierung in festen Kategorien zu verankern, müssen die politischen Entscheidungsträger Governance-Mechanismen entwickeln, die konzeptionelle Veränderungen antizipieren.

Die OECD arbeitet an einem Rahmen für antizipative Innovationsgovernance, der zeigt, wie solche Rahmenbedingungen funktionieren können: durch die Kombination von Voraussicht, Experimentierung und adaptiver Regulierung, um sich auf mehrere mögliche Zukünfte vorzubereiten. Dieser Ansatz steht im scharfen Gegensatz zur Abhängigkeit des EU AI Acts von festen Kategorien und Definitionen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...