Technische Sandkästen ermöglichen regulatorisches Lernen für den EU AI Act und schnelle KI-Entwicklung
Der bevorstehende AI Act der Europäischen Union zielt darauf ab, eine sich schnell entwickelnde technologische Landschaft zu regeln, wobei sein Erfolg von der Fähigkeit zur kontinuierlichen Anpassung und zum Lernen abhängt. Die Forschung befasst sich mit einer kritischen Lücke im Rahmen des Gesetzes, nämlich dem Fehlen klar definierter technischer Mechanismen zur Erfassung und Verarbeitung der für informierte politische Anpassungen erforderlichen Informationen.
Regulatorisches Lernmodell
Die Studie etabliert ein theoretisches Modell des regulatorischen Lernraums des EU AI Acts, indem sie ihn in Mikro-, Meso- und Makroebenen unterteilt, um den Informationsfluss zwischen den Stakeholdern zu kartieren. Die Wissenschaftler haben die Akteure und deren Interaktionen genau kartiert, um das dynamische Zusammenspiel zwischen Durchsetzung und Evidenzaggregation zu modellieren.
Herausforderungen und Lösungen
Eine adaptive Herangehensweise ist erforderlich, um KI-Technologien zu regulieren, angesichts ihrer schnellen Entwicklung und unvorhersehbaren Fähigkeiten. Der AI Act enthält Bestimmungen für regulatorisches Lernen, die jedoch innerhalb eines komplexen Netzwerks von Akteuren und Mechanismen operieren, denen eine klar definierte technische Basis für skalierbare Informationsflüsse fehlt.
Die Forschung hebt eine Diskrepanz zwischen der rechtlichen und operativen Autonomie des AI-Büros hervor, die als Beispiel für eine „Quasi-Agentifizierung“ innerhalb der EU-Governance identifiziert wird. Um dies zu überwinden, verfolgt die Studie einen funktionalen Ansatz, der den Top-Down-Durchsetzungsprozess von der Gesetzgebung zu technischen Bewertungen nachzeichnet.
Implikationen für die Zukunft
Die Ergebnisse zeigen, dass kleine und mittlere Unternehmen (KMU), die hochriskante KI-Klassifikationen aufweisen, die Einhaltung der Artikel 8 bis 27 des AI Acts nachweisen müssen, indem sie iterative Bewertungen während des Entwicklungszyklus ihrer Lösungen durchführen. Die Teilnahme an Strukturen wie Standardisierungsprozessen und Beratungsgremien ermöglicht es, Mikrodaten und Erfahrungen auf die Meso- und Makroebenen zu übertragen.
Eine konsistente, reproduzierbare Methodik innerhalb eines technischen Sandkastens macht die Entwicklung von KI-Systemen transparent und kann helfen, die rechtlichen Anforderungen und Bewertungsergebnisse zu interpretieren. Die Implementierung dieser Methodologien im Austausch mit den Mitgliedstaaten ermöglicht vergleichbare Bewertungen und unterstützt die Behörden bei der Sammlung von Beweisen sowie der Verfeinerung ihres Verständnisses der Übersetzung von hochrangiger Gesetzgebung in technische Umsetzungen.
Schlussfolgerung
Die Autoren erkennen Einschränkungen an, einschließlich sozio-politischer Herausforderungen wie regulatorischer Einflussnahme und legislativer Trägheit, die allein durch ein technisches Rahmenwerk nicht gelöst werden können. Die zukünftige Forschung wird sich darauf konzentrieren, die im Rahmen der Studie beschriebenen Komponenten umzusetzen, was den Compliance-Prozess in eine wertvolle Quelle regulatorischer Erkenntnisse für Unternehmen und Regulierungsbehörden verwandeln könnte.
Der Erfolg des AI Acts hängt letztendlich von der Operationalisierung dieser sozio-technischen Infrastruktur ab, wobei die vorgeschlagenen technischen Sandkästen einen entscheidenden Schritt in Richtung einer Balance zwischen Governance und fortwährender Innovation darstellen.