Zukunft der KI-Gesetzgebung nach dem Veto des Virginia-Gesetzes

Nach der Veto des Virginia AI-Gesetzes: Was kommt als Nächstes für die bundesstaatliche AI-Gesetzgebung?

Am 24. März 2025 hat der republikanische Gouverneur von Virginia, Glenn Youngkin, House Bill 2094 (VA HB2094), das Gesetz zur Regulierung künstlicher Intelligenz (AI) in Virginia, vetoiert. Dieses Gesetz war zuvor mit einer knappen Mehrheit von 21 zu 19 Stimmen im Senat von Virginia am 19. Februar verabschiedet worden. Es war darauf vorbereitet, das zweitgrößte horizontale bundesstaatliche AI-Gesetz in den USA zu werden, nach dem Colorado-Gesetz, das am 17. Mai 2024 in Kraft trat.

Die politischen Rahmenbedingungen, unter denen VA HB2094 zur Diskussion gestellt wurde, waren jedoch sehr unterschiedlich. Weniger als einen Monat vor der Verabschiedung veröffentlichte der frisch vereidigte Präsident Donald Trump sein eigenes Präsidentielle Verfügung zur AI, in der Innovation und die Beseitigung von bürokratischen Hürden priorisiert wurden.

Kritik am Gesetz

VA HB2094 sah sich von Anfang an starkem Widerstand gegenüber. Branchenverbände, wie die U.S. Chamber of Commerce, argumentierten, dass das Gesetz zu viele Hindernisse und Unsicherheiten für kleine Unternehmen schaffen würde. Auch einige Verbraucherorganisationen, die die Absicht des Gesetzes unterstützten, kritisierten die zahlreichen Schlupflöcher im Text.

Vergleich mit dem EU AI-Gesetz

Obwohl es oberflächliche Ähnlichkeiten zwischen VA HB2094 und dem EU AI-Gesetz gibt, sind die Unterschiede erheblich. Ein zentraler Punkt ist, dass das EU AI-Gesetz auf die Produktsicherheit fokussiert ist, während VA HB2094 sich ausschließlich mit algorithmischen Entscheidungen befasst.

Ähnlichkeiten

  • Definitionen: Beide Gesetze verwenden Definitionen von AI-Systemen, die von der OECD übernommen wurden.
  • Risikobasierter Ansatz: Sowohl das EU AI-Gesetz als auch VA HB2094 verfolgen einen risikobasierten Ansatz, wobei die Anforderungen je nach Risikokategorie variieren.
  • Kennzeichnung AI-generierter Inhalte: Beide Gesetze fordern, dass synthetische Inhalte als solche gekennzeichnet werden.

Unterschiede

  • Produktsicherheit: Das EU AI-Gesetz regelt sowohl Produkte als auch Organisationen, während VA HB2094 nur Organisationen reguliert.
  • Verantwortlichkeiten: VA HB2094 legt eine höhere Verantwortung auf die Betreiber von AI-Systemen.
  • Umfang der Verpflichtungen: VA HB2094 hat weniger und weniger strenge Verpflichtungen im Vergleich zum EU AI-Gesetz.
  • Ausnahmen: VA HB2094 bietet zahlreiche Ausnahmen für verschiedene AI-Anwendungen und Sektoren.
  • Durchsetzung: Die Durchsetzung des VA HB2094 wird dem Staatsanwalt übertragen, während das EU AI-Gesetz auf ein komplexes System von Marktüberwachungsbehörden setzt.

Empfehlungen für Bundesstaatliche Gesetzgeber

Basierend auf der Analyse der Ähnlichkeiten und Unterschiede zwischen dem EU AI-Gesetz und dem nun verworfenen VA HB2094 ergeben sich zwei Hauptempfehlungen:

  • Verwendung der vollständigen OECD-Definition: Um eine unbeabsichtigte Abdeckung weniger komplexer Systeme zu vermeiden.
  • Berücksichtigung der Verantwortlichkeiten: Eine angemessene Lastenverteilung zwischen Entwicklern und Betreibern ist entscheidend.

Fazit

Die Veto des VA HB2094 durch Gouverneur Youngkin ist nicht überraschend. Die Gründe liegen weniger im Inhalt des Gesetzes, sondern vielmehr im politischen Klima von Virginia und dem aktuellen Trend zur Deregulierung. Die Ähnlichkeiten zwischen dem Virginia-Gesetz und dem EU AI-Gesetz sind weitgehend konzeptioneller Natur, während die weitreichenden Ausnahmen und die schwachen Strafen im VA HB2094 es erheblich von dem europäischen Modell unterscheiden.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...