Zukunft der KI-Gesetzgebung nach dem Veto des Virginia-Gesetzes

Nach der Veto des Virginia AI-Gesetzes: Was kommt als Nächstes für die bundesstaatliche AI-Gesetzgebung?

Am 24. März 2025 hat der republikanische Gouverneur von Virginia, Glenn Youngkin, House Bill 2094 (VA HB2094), das Gesetz zur Regulierung künstlicher Intelligenz (AI) in Virginia, vetoiert. Dieses Gesetz war zuvor mit einer knappen Mehrheit von 21 zu 19 Stimmen im Senat von Virginia am 19. Februar verabschiedet worden. Es war darauf vorbereitet, das zweitgrößte horizontale bundesstaatliche AI-Gesetz in den USA zu werden, nach dem Colorado-Gesetz, das am 17. Mai 2024 in Kraft trat.

Die politischen Rahmenbedingungen, unter denen VA HB2094 zur Diskussion gestellt wurde, waren jedoch sehr unterschiedlich. Weniger als einen Monat vor der Verabschiedung veröffentlichte der frisch vereidigte Präsident Donald Trump sein eigenes Präsidentielle Verfügung zur AI, in der Innovation und die Beseitigung von bürokratischen Hürden priorisiert wurden.

Kritik am Gesetz

VA HB2094 sah sich von Anfang an starkem Widerstand gegenüber. Branchenverbände, wie die U.S. Chamber of Commerce, argumentierten, dass das Gesetz zu viele Hindernisse und Unsicherheiten für kleine Unternehmen schaffen würde. Auch einige Verbraucherorganisationen, die die Absicht des Gesetzes unterstützten, kritisierten die zahlreichen Schlupflöcher im Text.

Vergleich mit dem EU AI-Gesetz

Obwohl es oberflächliche Ähnlichkeiten zwischen VA HB2094 und dem EU AI-Gesetz gibt, sind die Unterschiede erheblich. Ein zentraler Punkt ist, dass das EU AI-Gesetz auf die Produktsicherheit fokussiert ist, während VA HB2094 sich ausschließlich mit algorithmischen Entscheidungen befasst.

Ähnlichkeiten

  • Definitionen: Beide Gesetze verwenden Definitionen von AI-Systemen, die von der OECD übernommen wurden.
  • Risikobasierter Ansatz: Sowohl das EU AI-Gesetz als auch VA HB2094 verfolgen einen risikobasierten Ansatz, wobei die Anforderungen je nach Risikokategorie variieren.
  • Kennzeichnung AI-generierter Inhalte: Beide Gesetze fordern, dass synthetische Inhalte als solche gekennzeichnet werden.

Unterschiede

  • Produktsicherheit: Das EU AI-Gesetz regelt sowohl Produkte als auch Organisationen, während VA HB2094 nur Organisationen reguliert.
  • Verantwortlichkeiten: VA HB2094 legt eine höhere Verantwortung auf die Betreiber von AI-Systemen.
  • Umfang der Verpflichtungen: VA HB2094 hat weniger und weniger strenge Verpflichtungen im Vergleich zum EU AI-Gesetz.
  • Ausnahmen: VA HB2094 bietet zahlreiche Ausnahmen für verschiedene AI-Anwendungen und Sektoren.
  • Durchsetzung: Die Durchsetzung des VA HB2094 wird dem Staatsanwalt übertragen, während das EU AI-Gesetz auf ein komplexes System von Marktüberwachungsbehörden setzt.

Empfehlungen für Bundesstaatliche Gesetzgeber

Basierend auf der Analyse der Ähnlichkeiten und Unterschiede zwischen dem EU AI-Gesetz und dem nun verworfenen VA HB2094 ergeben sich zwei Hauptempfehlungen:

  • Verwendung der vollständigen OECD-Definition: Um eine unbeabsichtigte Abdeckung weniger komplexer Systeme zu vermeiden.
  • Berücksichtigung der Verantwortlichkeiten: Eine angemessene Lastenverteilung zwischen Entwicklern und Betreibern ist entscheidend.

Fazit

Die Veto des VA HB2094 durch Gouverneur Youngkin ist nicht überraschend. Die Gründe liegen weniger im Inhalt des Gesetzes, sondern vielmehr im politischen Klima von Virginia und dem aktuellen Trend zur Deregulierung. Die Ähnlichkeiten zwischen dem Virginia-Gesetz und dem EU AI-Gesetz sind weitgehend konzeptioneller Natur, während die weitreichenden Ausnahmen und die schwachen Strafen im VA HB2094 es erheblich von dem europäischen Modell unterscheiden.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...