Zukunft der KI-Gesetzgebung nach dem Veto des Virginia-Gesetzes

Nach der Veto des Virginia AI-Gesetzes: Was kommt als Nächstes für die bundesstaatliche AI-Gesetzgebung?

Am 24. März 2025 hat der republikanische Gouverneur von Virginia, Glenn Youngkin, House Bill 2094 (VA HB2094), das Gesetz zur Regulierung künstlicher Intelligenz (AI) in Virginia, vetoiert. Dieses Gesetz war zuvor mit einer knappen Mehrheit von 21 zu 19 Stimmen im Senat von Virginia am 19. Februar verabschiedet worden. Es war darauf vorbereitet, das zweitgrößte horizontale bundesstaatliche AI-Gesetz in den USA zu werden, nach dem Colorado-Gesetz, das am 17. Mai 2024 in Kraft trat.

Die politischen Rahmenbedingungen, unter denen VA HB2094 zur Diskussion gestellt wurde, waren jedoch sehr unterschiedlich. Weniger als einen Monat vor der Verabschiedung veröffentlichte der frisch vereidigte Präsident Donald Trump sein eigenes Präsidentielle Verfügung zur AI, in der Innovation und die Beseitigung von bürokratischen Hürden priorisiert wurden.

Kritik am Gesetz

VA HB2094 sah sich von Anfang an starkem Widerstand gegenüber. Branchenverbände, wie die U.S. Chamber of Commerce, argumentierten, dass das Gesetz zu viele Hindernisse und Unsicherheiten für kleine Unternehmen schaffen würde. Auch einige Verbraucherorganisationen, die die Absicht des Gesetzes unterstützten, kritisierten die zahlreichen Schlupflöcher im Text.

Vergleich mit dem EU AI-Gesetz

Obwohl es oberflächliche Ähnlichkeiten zwischen VA HB2094 und dem EU AI-Gesetz gibt, sind die Unterschiede erheblich. Ein zentraler Punkt ist, dass das EU AI-Gesetz auf die Produktsicherheit fokussiert ist, während VA HB2094 sich ausschließlich mit algorithmischen Entscheidungen befasst.

Ähnlichkeiten

  • Definitionen: Beide Gesetze verwenden Definitionen von AI-Systemen, die von der OECD übernommen wurden.
  • Risikobasierter Ansatz: Sowohl das EU AI-Gesetz als auch VA HB2094 verfolgen einen risikobasierten Ansatz, wobei die Anforderungen je nach Risikokategorie variieren.
  • Kennzeichnung AI-generierter Inhalte: Beide Gesetze fordern, dass synthetische Inhalte als solche gekennzeichnet werden.

Unterschiede

  • Produktsicherheit: Das EU AI-Gesetz regelt sowohl Produkte als auch Organisationen, während VA HB2094 nur Organisationen reguliert.
  • Verantwortlichkeiten: VA HB2094 legt eine höhere Verantwortung auf die Betreiber von AI-Systemen.
  • Umfang der Verpflichtungen: VA HB2094 hat weniger und weniger strenge Verpflichtungen im Vergleich zum EU AI-Gesetz.
  • Ausnahmen: VA HB2094 bietet zahlreiche Ausnahmen für verschiedene AI-Anwendungen und Sektoren.
  • Durchsetzung: Die Durchsetzung des VA HB2094 wird dem Staatsanwalt übertragen, während das EU AI-Gesetz auf ein komplexes System von Marktüberwachungsbehörden setzt.

Empfehlungen für Bundesstaatliche Gesetzgeber

Basierend auf der Analyse der Ähnlichkeiten und Unterschiede zwischen dem EU AI-Gesetz und dem nun verworfenen VA HB2094 ergeben sich zwei Hauptempfehlungen:

  • Verwendung der vollständigen OECD-Definition: Um eine unbeabsichtigte Abdeckung weniger komplexer Systeme zu vermeiden.
  • Berücksichtigung der Verantwortlichkeiten: Eine angemessene Lastenverteilung zwischen Entwicklern und Betreibern ist entscheidend.

Fazit

Die Veto des VA HB2094 durch Gouverneur Youngkin ist nicht überraschend. Die Gründe liegen weniger im Inhalt des Gesetzes, sondern vielmehr im politischen Klima von Virginia und dem aktuellen Trend zur Deregulierung. Die Ähnlichkeiten zwischen dem Virginia-Gesetz und dem EU AI-Gesetz sind weitgehend konzeptioneller Natur, während die weitreichenden Ausnahmen und die schwachen Strafen im VA HB2094 es erheblich von dem europäischen Modell unterscheiden.

More Insights

G7-Gipfel verpasst Chance für globale KI-Governance

Die G7-Führungskräfte haben bei ihrem Treffen in Alberta, Kanada, versäumt, die wichtige Thematik der Regulierung von Künstlicher Intelligenz (KI) umfassend zu behandeln. Stattdessen lag der...

Afrika gestaltet eine souveräne Zukunft der KI-Governance

Afrikanische Führer beim Internet Governance Forum (IGF) 2025 forderten dringende Maßnahmen zur Schaffung souveräner und ethischer KI-Systeme, die auf lokale Bedürfnisse zugeschnitten sind. Über 1.000...

Top 10 Herausforderungen bei KI-Regulierungen und Compliance

Mit der Entwicklung von KI weltweit wird es zunehmend schwieriger, effektive Vorschriften zu implementieren. Die EU führt mit ihrem KI-Gesetz, das strenge Verpflichtungen für hochriskante...

Chinas Weg zur verkörperten KI

Der Wettbewerb zwischen den USA und China im Bereich Künstliche Intelligenz wird als die entscheidende technologische Rivalität unserer Zeit angesehen. Während die USA Vorteile in der...

Workday setzt Maßstäbe für verantwortungsbewusste KI mit dualen Governance-Akkreditierungen

Workday hat zwei Drittanbieter-Akkreditierungen für sein KI-Governance-Programm erhalten, einschließlich der ISO 42001. Diese Anerkennung bekräftigt das Engagement des Unternehmens für den Aufbau...

Ethische Standards für KI im Schatten des US-China-Technologiekonflikts

Inmitten der wachsenden Rivalität zwischen den USA und China drängt eine UN-Agentur auf globale Standards für die Ethik von KI. UNESCO hielt das dritte Globale Forum zur Ethik von Künstlicher...

EU AI-Gesetz: Sicherheit und Verantwortung im Fokus

Der EU AI Act stellt strenge Anforderungen an Organisationen, um die sichere Bereitstellung von KI und den Schutz sensibler Daten zu gewährleisten. Zscaler DSPM spielt eine entscheidende Rolle bei der...

Gesetzesentwurf zum Verbot von KI aus feindlichen Nationen

Eine parteiübergreifende Gesetzesvorlage zielt darauf ab, die Nutzung von KI aus China, Russland, Iran und Nordkorea in Bundesbehörden zu verbieten. Das Gesetz, bekannt als "No Adversarial AI Act"...