EU-KI-Regulierung: Modell oder Warnung für die USA?

Die KI-Regulierung der Europäischen Union: Modell und Warnung für US-Gesetzgeber

Die bahnbrechende KI-Verordnung der Europäischen Union, die im vergangenen Jahr in Kraft trat, dient als Inspiration für einige US-Gesetzgeber, die umfassende Verbraucherschutzmaßnahmen ergreifen möchten. Andere betrachten sie als Warnung vor einer übermäßigen Regulierung, die zu einer weniger wettbewerbsfähigen digitalen Wirtschaft führen könnte.

Die EU hat ihr Gesetz erlassen, um zu verhindern, was derzeit in den USA geschieht: ein Patchwork von KI-Gesetzgebungen in den einzelnen Bundesstaaten. Sean Heather, Vizepräsident für internationale regulatorische Angelegenheiten und Antitrust bei der Handelskammer, erklärte dies während einer explorativen Anhörung des Kongressausschusses am 21. Mai.

„Die KI-Innovatoren Amerikas laufen Gefahr, zwischen dem sogenannten Brüsseler Effekt überzogener europäischer Regelungen und dem Sakramento-Effekt übermäßiger staatlicher und lokaler Vorgaben eingeengt zu werden“, sagte Adam Thierer, Senior Fellow am R Street Institute, während der Anhörung.

Die umfassende Natur der EU-KI-Verordnung

Die KI-Verordnung der EU ist umfassend und legt die regulatorische Verantwortung auf die Entwickler von KI-Systemen, um das Risiko von Schäden durch diese Systeme zu mindern. Sie erfordert auch, dass Entwickler technische Dokumentationen und Schulungszusammenfassungen ihrer Modelle zur Überprüfung durch EU-Beamte bereitstellen. Thierer bezeugte, dass die USA, wenn sie ähnliche Richtlinien annehmen würden, ihre Führungsposition im globalen KI-Rennen verlieren könnten.

Der „Brüsseler Effekt“, den Thierer erwähnte, ist die Idee, dass die Vorschriften der EU den globalen Markt beeinflussen werden. Bislang hat jedoch nicht viel von der Welt diesem Beispiel gefolgt; Kanada, Brasilien und Peru arbeiten an ähnlichen Gesetzen, aber das Vereinigte Königreich und Länder wie Australien, Neuseeland, die Schweiz, Singapur und Japan verfolgen einen weniger restriktiven Ansatz.

Amerikanische Selbstregulierung und Herausforderungen

Wenn Jeff Le, Gründer der 100 Mile Strategies LLC, mit Gesetzgebern auf beiden Seiten des Gangs spricht, hört er, dass sie nicht wollen, dass die Gesetze eines anderen Landes die amerikanischen Regeln bestimmen. „Vielleicht gibt es einen Platz dafür in unserer Regulierungsdebatte“, sagte Le. „Aber ich denke, der Punkt hier ist, dass amerikanische Wähler von amerikanischen Regeln überwacht werden sollten, und in Abwesenheit dieser Regeln ist es sehr kompliziert.“

Kritiker der KI-Verordnung behaupten, die Sprache sei übermäßig breit gefasst, was die Entwicklung von KI-Systemen verlangsamt, während sie versuchen, die regulatorischen Anforderungen zu erfüllen. Frankreich und Deutschland gehören zu den zehn führenden KI-Nationen, und China belegt den zweiten Platz, während die USA derzeit mit großem Abstand führen, was die Anzahl der führenden KI-Modelle und die KI-Forschung angeht.

Die Auswirkungen auf die Wettbewerbsfähigkeit

Professor Peter Salib von der University of Houston Law Center glaubt, dass die EU-KI-Verordnung ein Faktor — aber nicht der einzige — ist, der europäische Länder von den Spitzenplätzen abhält. Er argumentierte, dass das Gesetz erst seit etwa neun Monaten in Kraft ist, was nicht lange genug sei, um einen signifikanten Einfluss auf die Fähigkeit Europas zu haben, an der globalen KI-Wirtschaft teilzunehmen.

Salib stellte auch fest, dass die EU-KI-Verordnung Teil einer viel längerfristigen Haltung in Europa ist, die Dinge wie Datenschutz und Transparenz sehr hoch priorisiert. „Für Europäer ist das gut, wenn sie das wollen, aber es scheint ernsthafte Kosten in Bezug darauf zu haben, wo Innovation stattfindet“, sagte Salib.

Selbstregulierung in den USA

Die EU-Verordnung legt eine Menge Verantwortung auf die Entwickler von KI und erfordert Transparenz, Berichterstattung, Tests mit Dritten und die Verfolgung von Urheberrechten. Diese Dinge tun KI-Unternehmen in den USA bereits, so Gadinis. Die Unternehmen selbst geben an, dass sie dies bis zu einem gewissen Grad tun, aber die Frage bleibt, wie umfangreich diese Bemühungen sein müssen, insbesondere wenn es darum geht, einen Regulierer davon zu überzeugen.

Bis 2024 war Sam Altman, CEO von OpenAI, Befürworter einer bundesstaatlichen KI-Regulierung und saß im Sicherheits- und Sicherheitskomitee des Unternehmens, das regelmäßig die Prozesse und Sicherheitsvorkehrungen von OpenAI über einen Zeitraum von 90 Tagen bewertet. Im September verließ er das Komitee und wurde seitdem lautstark gegen eine bundesstaatliche KI-Gesetzgebung.

Was könnte die USA von den Praktiken der EU lernen?

Salib ist der Meinung, dass ein Gesetz wie die EU-KI-Verordnung in den USA zu „übermäßig umfassend“ wäre. Viele Gesetze, die derzeit KI-Anliegen betreffen, wie Diskriminierung durch Algorithmen oder selbstfahrende Autos, könnten durch bestehende Gesetze geregelt werden. Gadinis äußerte Zweifel daran, warum der Kongress dem staatlichen Regelungsmodell widersteht, da die meisten staatlichen Gesetze verbraucherorientiert und sehr spezifisch sind.

Er prognostiziert, dass die Bundesregierung wenig bis gar nichts unternehmen wird, um KI zu regulieren, aber der zunehmende Druck aus der Öffentlichkeit könnte zu einem selbstregulierenden Gremium der Branche führen. Dies ist der Bereich, in dem er glaubt, dass die EU den größten Einfluss haben wird.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...