A False Confidence in the EU AI Act: Epistemic Gaps and Bureaucratic Traps
Am 10. Juli 2025 veröffentlichte die Europäische Kommission den endgültigen Entwurf des Allgemeinen Kodex für Künstliche Intelligenz (GPAI), ein „Kodex, der der Industrie helfen soll, die Regeln des AI Acts einzuhalten“. Der Kodex wird seit Oktober 2024 entwickelt, nachdem der iterative Entwurfsprozess im September 2024 begann. Die Kommission hatte ursprünglich geplant, den endgültigen Entwurf bis zum 2. Mai 2025 zu veröffentlichen, doch die anschließende Verzögerung weckte weit verbreitete Spekulationen – von Bedenken hinsichtlich Industrielobbying bis hin zu tiefergehenden, ideologischen Spannungen zwischen Befürwortern von Innovation und Regulierung.
Die rechtliche Erfindung von allgemeiner Künstlicher Intelligenz
Laut Art. 3(63) des EU AI Acts ist ein “allgemeines KI-Modell”:
„ein KI-Modell, das, auch wenn es mit einer großen Menge an Daten unter Verwendung von Selbstüberwachung in großem Maßstab trainiert wurde, eine bedeutende Allgemeinheit aufweist und in der Lage ist, kompetent eine Vielzahl unterschiedlicher Aufgaben unabhängig davon auszuführen, wie das Modell auf den Markt gebracht wird und das in eine Vielzahl von nachgelagerten Systemen oder Anwendungen integriert werden kann, mit Ausnahme von KI-Modellen, die für Forschungs-, Entwicklungs- oder Prototyping-Aktivitäten verwendet werden, bevor sie auf den Markt kommen.“
Was der Act hier beschreibt, entspricht dem, was die KI-Forschungsgemeinschaft als Grundlagenmodell bezeichnet – ein Begriff, der, obwohl nicht perfekt, weit verbreitet verwendet wird, um groß angelegte Modelle zu beschreiben, die auf breiten Datensätzen trainiert werden, um mehrere Aufgaben zu unterstützen. Beispiele für solche Grundlagenmodelle sind die ChatGPT-Serie von OpenAI, Microsofts Magma, Googles Gemini und BERT.
Der Begriff “allgemeine Künstliche Intelligenz” (GPAI) entstand jedoch nicht innerhalb der KI-Forschungsgemeinschaft. Es handelt sich um eine rechtliche Konstruktion, die durch den EU AI Act eingeführt wurde, um bestimmte Arten von KI-Systemen rückblickend zu definieren. Der Act verleiht dem Begriff nicht nur eine regulatorische Bedeutung, sondern schafft auch eine neue Kategorie, die das Verständnis und die Entwicklung solcher Systeme in der Praxis gefährden könnte.
Die Grenzen eines risikobasierten Rahmens
Der EU AI Act verfolgt einen risikobasierten Regulierungsansatz. Artikel 3(2) definiert Risiko als „die Kombination der Wahrscheinlichkeit des Eintretens eines Schadens und der Schwere dieses Schadens“. Diese Definition entstammt klassischen rechtlichen und versicherungsmathematischen Traditionen, in denen angenommen wird, dass Schäden vorhersehbar sind und Wahrscheinlichkeiten vernünftig zugewiesen werden können.
Die Grundlagenmodelle sind jedoch durch Merkmale gekennzeichnet, die schwer zu quantifizieren sind, einschließlich ihrer probabilistischen und augmentativen Natur und ihrer Interaktion mit komplexen sozio-technischen Umgebungen, in denen Schäden nicht klar vorhergesagt werden können. Infolgedessen sind traditionelle Risikobewertungsansätze nicht in der Lage, ihr Verhalten oder ihre Auswirkungen adäquat zu berücksichtigen, was ein falsches Gefühl von Sicherheit für die Regulierungsbehörden erzeugen kann.
Der bürokratische Fallstrick der rechtlichen Sicherheit
Die Analyse von Max Weber zur Bürokratie hilft zu erklären, warum die oben erwähnte Diskrepanz zwischen den Annahmen, die in rechtlichen Instrumenten eingebettet sind, und den Realitäten der Technologien zu erwarten war. Weber beschrieb Bürokratie als ein „eisernes Käfig“ der Rationalisierung, das auf formalen Regeln, Hierarchien und kategorischer Klarheit beruht.
Die präzisen Definitionen des EU AI Acts, wie etwa die für „Anbieter“ (Art. 3(3)), „Bereitsteller“ (Art. 3(4)) und insbesondere „allgemeines KI-Modell“ (Art. 3(63)), spiegeln diese bürokratische Logik wider. Wie Weber warnte, kann diese Form der Rationalität zu übermäßig starren und formalisierten Denkweisen führen.
Die Lehre hieraus ist, dass der Act das Risiko birgt, die Paradigmen von gestern in die Welt von morgen zu legislieren. Anstatt die Regulierung in festen Kategorien zu verankern, müssen die politischen Entscheidungsträger Governance-Mechanismen entwickeln, die konzeptionelle Veränderungen antizipieren.
Die OECD arbeitet an einem Rahmen für antizipative Innovationsgovernance, der zeigt, wie solche Rahmenbedingungen funktionieren können: durch die Kombination von Voraussicht, Experimentierung und adaptiver Regulierung, um sich auf mehrere mögliche Zukünfte vorzubereiten. Dieser Ansatz steht im scharfen Gegensatz zur Abhängigkeit des EU AI Acts von festen Kategorien und Definitionen.