Falsches Vertrauen in den EU-KI-Act: Epistemische Lücken und bürokratische Fallen

A False Confidence in the EU AI Act: Epistemic Gaps and Bureaucratic Traps

Am 10. Juli 2025 veröffentlichte die Europäische Kommission den endgültigen Entwurf des Allgemeinen Kodex für Künstliche Intelligenz (GPAI), ein „Kodex, der der Industrie helfen soll, die Regeln des AI Acts einzuhalten“. Der Kodex wird seit Oktober 2024 entwickelt, nachdem der iterative Entwurfsprozess im September 2024 begann. Die Kommission hatte ursprünglich geplant, den endgültigen Entwurf bis zum 2. Mai 2025 zu veröffentlichen, doch die anschließende Verzögerung weckte weit verbreitete Spekulationen – von Bedenken hinsichtlich Industrielobbying bis hin zu tiefergehenden, ideologischen Spannungen zwischen Befürwortern von Innovation und Regulierung.

Die rechtliche Erfindung von allgemeiner Künstlicher Intelligenz

Laut Art. 3(63) des EU AI Acts ist ein “allgemeines KI-Modell”:

„ein KI-Modell, das, auch wenn es mit einer großen Menge an Daten unter Verwendung von Selbstüberwachung in großem Maßstab trainiert wurde, eine bedeutende Allgemeinheit aufweist und in der Lage ist, kompetent eine Vielzahl unterschiedlicher Aufgaben unabhängig davon auszuführen, wie das Modell auf den Markt gebracht wird und das in eine Vielzahl von nachgelagerten Systemen oder Anwendungen integriert werden kann, mit Ausnahme von KI-Modellen, die für Forschungs-, Entwicklungs- oder Prototyping-Aktivitäten verwendet werden, bevor sie auf den Markt kommen.“

Was der Act hier beschreibt, entspricht dem, was die KI-Forschungsgemeinschaft als Grundlagenmodell bezeichnet – ein Begriff, der, obwohl nicht perfekt, weit verbreitet verwendet wird, um groß angelegte Modelle zu beschreiben, die auf breiten Datensätzen trainiert werden, um mehrere Aufgaben zu unterstützen. Beispiele für solche Grundlagenmodelle sind die ChatGPT-Serie von OpenAI, Microsofts Magma, Googles Gemini und BERT.

Der Begriff “allgemeine Künstliche Intelligenz” (GPAI) entstand jedoch nicht innerhalb der KI-Forschungsgemeinschaft. Es handelt sich um eine rechtliche Konstruktion, die durch den EU AI Act eingeführt wurde, um bestimmte Arten von KI-Systemen rückblickend zu definieren. Der Act verleiht dem Begriff nicht nur eine regulatorische Bedeutung, sondern schafft auch eine neue Kategorie, die das Verständnis und die Entwicklung solcher Systeme in der Praxis gefährden könnte.

Die Grenzen eines risikobasierten Rahmens

Der EU AI Act verfolgt einen risikobasierten Regulierungsansatz. Artikel 3(2) definiert Risiko als „die Kombination der Wahrscheinlichkeit des Eintretens eines Schadens und der Schwere dieses Schadens“. Diese Definition entstammt klassischen rechtlichen und versicherungsmathematischen Traditionen, in denen angenommen wird, dass Schäden vorhersehbar sind und Wahrscheinlichkeiten vernünftig zugewiesen werden können.

Die Grundlagenmodelle sind jedoch durch Merkmale gekennzeichnet, die schwer zu quantifizieren sind, einschließlich ihrer probabilistischen und augmentativen Natur und ihrer Interaktion mit komplexen sozio-technischen Umgebungen, in denen Schäden nicht klar vorhergesagt werden können. Infolgedessen sind traditionelle Risikobewertungsansätze nicht in der Lage, ihr Verhalten oder ihre Auswirkungen adäquat zu berücksichtigen, was ein falsches Gefühl von Sicherheit für die Regulierungsbehörden erzeugen kann.

Der bürokratische Fallstrick der rechtlichen Sicherheit

Die Analyse von Max Weber zur Bürokratie hilft zu erklären, warum die oben erwähnte Diskrepanz zwischen den Annahmen, die in rechtlichen Instrumenten eingebettet sind, und den Realitäten der Technologien zu erwarten war. Weber beschrieb Bürokratie als ein „eisernes Käfig“ der Rationalisierung, das auf formalen Regeln, Hierarchien und kategorischer Klarheit beruht.

Die präzisen Definitionen des EU AI Acts, wie etwa die für „Anbieter“ (Art. 3(3)), „Bereitsteller“ (Art. 3(4)) und insbesondere „allgemeines KI-Modell“ (Art. 3(63)), spiegeln diese bürokratische Logik wider. Wie Weber warnte, kann diese Form der Rationalität zu übermäßig starren und formalisierten Denkweisen führen.

Die Lehre hieraus ist, dass der Act das Risiko birgt, die Paradigmen von gestern in die Welt von morgen zu legislieren. Anstatt die Regulierung in festen Kategorien zu verankern, müssen die politischen Entscheidungsträger Governance-Mechanismen entwickeln, die konzeptionelle Veränderungen antizipieren.

Die OECD arbeitet an einem Rahmen für antizipative Innovationsgovernance, der zeigt, wie solche Rahmenbedingungen funktionieren können: durch die Kombination von Voraussicht, Experimentierung und adaptiver Regulierung, um sich auf mehrere mögliche Zukünfte vorzubereiten. Dieser Ansatz steht im scharfen Gegensatz zur Abhängigkeit des EU AI Acts von festen Kategorien und Definitionen.

More Insights

Die umfassende Anleitung zur Nutzung von KI in der öffentlichen Verwaltung in Finnland 2025

Finnland steht an einem entscheidenden Punkt, da das EU AI-Gesetz am 2. August 2025 in Kraft tritt und nationale Umsetzungen in Bewegung sind. Die Behörden müssen sich auf eine Mischung aus Chancen...

Strategien zur KI-Governance: Risiko und Innovation in Ostasien

Die Regierungen in Südkorea, Japan und Taiwan entwickeln jeweils unterschiedliche Ansätze zur KI-Governance, um Innovationen zu fördern und gleichzeitig Risiken zu managen. Während Südkorea ein...

Herausforderungen der KI-Regulierung im Versicherungswesen

Versicherungsunternehmen integrieren zunehmend KI in ihre Prozesse, was zu einer schnelleren Datenverarbeitung und verbesserter Interaktion mit den Versicherungsnehmern führt. Doch diese...

Falsches Vertrauen in den EU-KI-Act: Epistemische Lücken und bürokratische Fallen

Am 10. Juli 2025 veröffentlichte die Europäische Kommission den endgültigen Entwurf des Codes für allgemeine künstliche Intelligenz (GPAI), der der Industrie helfen soll, die Regeln des KI-Gesetzes...

Der EU AI Act: Rahmenbedingungen für sichere KI und Risikomanagement

Der EU AI Act bietet einen risikobasierten Rahmen, um die Risiken von Super-AI zu bewältigen und menschliche Aufsicht sowie Cybersicherheitsmaßnahmen zu stärken. Durch strenge Vorschriften für...

EU KI-Gesetz: Meilenstein im August 2025 und seine Auswirkungen

Der EU AI Act hat am 2. August 2025 einen wichtigen Meilenstein erreicht, da allgemeine KI-Modelle nun offiziell unter die Vorschriften fallen. Anbieter müssen nun grundlegende Anforderungen erfüllen...

Die EU im Dilemma: KI und Urheberrecht

Die Anpassungen der EU-Copyright-Anforderungen im Rahmen des KI-Gesetzes werden vorerst das Wachstum der KI aufrechterhalten, bringen jedoch auch neue Herausforderungen mit sich. Die Einhaltung der...

Der EU-Datenakt: Fristen und Anforderungen für KI-Systeme

Das EU-Daten-Gesetz ist am 2. August 2025 in Kraft getreten, und die Frist für die Einhaltung rückt näher. Unternehmen, die KI-Systeme in der EU betreiben, müssen sich auf die bevorstehenden...

Neue KI-Kennzeichnungsregeln in China: Was Unternehmen wissen müssen

China hat am 1. September 2025 neue Vorschriften für die Kennzeichnung von KI-generierten Inhalten eingeführt, die eine klare Identifizierung solcher Inhalte auf chinesischen Plattformen erfordern...