Beseitigung des Brüsseler Effekts? Der AI Act inspiriert nur wenige Nachahmer
Der AI Act der Europäischen Union wurde als das nächste Beispiel für den vielgepriesenen Brüsseler Effekt angekündigt, bei dem der strenge regulatorische Ansatz des Blocks weltweit verbreitet wird. Länder haben die Datenschutzrichtlinien der EU (GDPR) kopiert und ihre Digital Markets Act-Antitrust-Regeln nachgeahmt, um große Technologieunternehmen einzudämmen. Die europäischen Regulierungsbehörden zielen nun darauf ab, KI-Entwickler zur Durchsetzung von Algorithmustransparenz, risikobasierter Prüfung und strengen Compliance-Vorgaben zu zwingen.
Bislang inspirieren die ehrgeizigen KI-Regeln Europas jedoch nur wenige Nachahmer. In einer aktuellen Studie wurde festgestellt, dass nur Kanada und Brasilien ähnliche Rahmenbedingungen entwerfen, wobei beide Initiativen jedoch in einem legislativen Stillstand feststecken. Die USA, Australien, Neuseeland, Norwegen, die Schweiz, Singapur und Japan verfolgen einen pro-innovationsfreundlichen, weniger restriktiven Ansatz in der KI-Regulierung.
Die Herausforderung für Europa
Europa steht vor der drängenden Frage, wie es auf die Tatsache reagieren soll, dass der AI Act ohne ähnlich strenge Regelungen in anderen großen Mächten möglicherweise nicht die gewünschte Wirkung entfalten kann. Mehrere Erklärungen deuten darauf hin, warum der AI Act wenig globale Auswirkungen hat, so Wissenschaftler. Die Gesetzgebung ist komplex und verwirrend, und selbst EU-Juristen haben Schwierigkeiten, die Regeln zu verstehen – ganz zu schweigen von den Regulierungsbehörden in anderen Jurisdiktionen, die nach einem einfachen Text suchen.
Darüber hinaus hat die EU in ihrer Eile, voranzukommen, die multilateralen Ansätze – wie den G-7-Prozess in Hiroshima, die OECD-Risikomatrix und den Vertrag des Europarats – überholt. Während fast alle Regierungen die Notwendigkeit anerkennen, die Privatsphäre zu schützen und Wettbewerb sicherzustellen, sehen viele mehr Vorteile in der KI als Risiken.
Konformitätskosten und regulatorische Belastungen
Die europäischen Vorschriften belasten Unternehmen mit hohen Kosten für die Konformitätsbewertung. Start-ups müssen Auditoren bezahlen und umfangreiche technische Dokumentationen erstellen, bevor sie auch nur eine einzige Zeile Code veröffentlichen können. Im Gegensatz dazu erlauben Länder wie das Vereinigte Königreich oder Japan Unternehmen, Produkte schrittweise auf den Markt zu bringen und zu überwachen.
Die Komplexität, schlechte zeitliche Planung und die hohen Vorabkosten neigen nicht-europäische politische Entscheidungsträger dazu, einen leichteren, sektorspezifischen Ansatz zu wählen. Sie übernehmen die Rhetorik der EU über vertrauenswürdige KI, schieben aber vorerst das Regelwerk beiseite.
Zukunftsaussichten für den AI Act
Der AI Act könnte jedoch an Schwung gewinnen, da er offiziell erst im Juni 2024 in Kraft trat und die Details noch ausgearbeitet werden. Wenn Skandale rund um KI-Technologien Ängste erzeugen, könnten Regierungen das europäische Modell in Betracht ziehen. Ein einziger aufsehenerregender Vorfall – wie der Tod durch ein autonomes Fahrzeug – könnte den Politikern das „regalbereite“ Template liefern und Brüssel von einem Außenseiter zu einem Vorreiter machen.
Aktuell stehen Kanada und Brasilien heraus, da sie dem risikobasierten Modell der EU näher kommen als andere große Volkswirtschaften. Seit 2022 arbeiten kanadische Gesetzgeber an einem Gesetz über künstliche Intelligenz und Daten, das den Ansatz Europas widerspiegelt. In Brasilien wurde 2023 ein Gesetz vorgeschlagen, das KI-Systeme als übermäßig, hoch- oder niedrigrisikobehaftet klassifiziert.
Globale Trends und Reaktionen
Andere Länder, wie Südkorea, haben ebenfalls Regelungen eingeführt, die sich an den EU-Modellen orientieren, jedoch die umfassenden Inspektionsanforderungen der EU umgehen. Der Gesetzesentwurf sieht vor, dass Entwickler von „hochwirksamen“ Systemen lediglich eine Risikoüberprüfung beim Ministerium für Wissenschaft und ICT einreichen müssen.
In vielen anderen Regionen wird der AI Act kaum nachgeahmt. Im Vereinigten Königreich wird eine umfassende gesetzgeberische Überarbeitung vermieden, während Australien und Neuseeland bestehende Verbraucher- und Datenschutzgesetze nutzen. Selbst europäische Nachbarn wie Norwegen und Schweiz haben den schweren Ansatz des AI Act abgelehnt und setzen auf gezielte Anpassungen.
Die mangelnde globale Akzeptanz wirft jedoch eine scharfe Frage auf: Wenn Europa allein strenge Regeln auferlegt, besteht das Risiko, dass Investitionen abgeschreckt werden und kleinere Unternehmen überfordert sind, die über keine Ressourcen für die Einhaltung verfügen. Kapital und Talente könnten in permissivere Märkte abwandern. Der AI Act könnte somit ein ausschließlich europäisches Instrument bleiben – ambitioniert auf dem Papier, aber begrenzt in seiner globalen Einflussnahme.