Virginia setzt Maßstäbe für KI-Regulierung

Die Zukunft der KI-Regulierung: Virginia auf dem Weg, der zweite Staat zu werden, der Gesetze für Hochrisiko-KI-Systeme erlassen wird

Virginia hat einen Schritt näher daran gemacht, der zweite Staat (nach Colorado) zu werden, der umfassende Gesetze zur Bekämpfung von Diskriminierung durch den Einsatz von künstlicher Intelligenz (KI) erlassen wird. Am 12. Februar 2025 verabschiedete der Virginia State Senate das Gesetz über Hochrisiko-KI-Entwickler und -Betreiber (H.B. 2094), das, falls es in Kraft tritt, den Einsatz von KI in verschiedenen Kontexten regulieren wird, einschließlich der Entscheidungsfindung über den Zugang zu Beschäftigung.

Schnelle Hinweise

– Falls das Gesetz von Gouverneur Youngkin unterzeichnet wird, tritt es am 1. Juli 2026 in Kraft und gibt betroffenen Unternehmen ausreichend Zeit, sich auf die Anforderungen vorzubereiten.
– Das Gesetz gilt für KI-Systeme, die autonom erhebliche Entscheidungen treffen oder maßgeblich beeinflussen, wie zum Beispiel bei Krediten, Wohnraum, Bildung und Gesundheitsversorgung sowie potenziell bei der Einstellung von Mitarbeitern.
– Obwohl H.B. 2094 Individuen, die in einem kommerziellen oder beschäftigungstechnischen Kontext handeln, von der Definition des „Verbrauchers“ ausschließt, umfasst der Begriff „folgenreiche Entscheidung“ spezifisch Entscheidungen mit rechtlichen oder ähnlichen Auswirkungen bezüglich des Zugangs zu Beschäftigung, sodass Bewerber offensichtlich unter die Anforderungen fallen.

Überblick

Das Gesetz von Virginia etabliert eine Pflicht zur angemessenen Sorgfalt für Unternehmen, die automatisierte Entscheidungssysteme in mehreren regulierten Bereichen einsetzen, einschließlich Beschäftigung, Finanzdienstleistungen und Gesundheitswesen. Der regulatorische Rahmen gilt speziell für „hochriskante künstliche Intelligenz“-Systeme, die „speziell dazu bestimmt sind, autonom“ Entscheidungen zu treffen oder maßgeblich zur Entscheidungsfindung beizutragen. Diese gesetzliche Formulierung schränkt den Anwendungsbereich im Vergleich zu Colorados Ansatz erheblich ein.

Wer ist ein „Verbraucher“?

Ein zentrales Ziel dieses Gesetzes ist es, „Verbraucher“ vor algorithmischer Diskriminierung zu schützen, insbesondere wenn automatisierte Systeme verwendet werden, um entscheidende Entscheidungen über Einzelpersonen zu treffen. Das Gesetz definiert einen „Verbraucher“ als natürliche Person, die Einwohner von Virginia ist und in einem individuellen oder Haushaltskontext handelt. H.B. 2094 enthält eine spezifische Ausschlussregel für Personen, die in einem kommerziellen oder beschäftigungstechnischen Kontext handeln.

Eine potenzielle Quelle der Verwirrung ist, wie „Zugang zu Beschäftigung“ eine „folgenreiche Entscheidung“ unter dem Gesetz sein kann, während gleichzeitig diejenigen im Beschäftigungskontext von der Definition der „Verbraucher“ ausgeschlossen werden. Die logische Lesart dieser widersprüchlichen Definitionen deutet darauf hin, dass Bewerber für eine Stelle nicht in einem Beschäftigungskapazität im Namen eines Unternehmens handeln; stattdessen sind sie private Einzelpersonen, die aus persönlichen Gründen eine Anstellung suchen.

Hochrisiko-KI-Systeme und folgenreiche Entscheidungen

H.B. 2094 reguliert nur solche KI-Systeme, die als „hochriskant“ gelten. Solche Systeme treffen autonom erhebliche Entscheidungen, die grundlegende Rechte oder Chancen betreffen, wie die Zulassung zu Bildungsprogrammen, die Genehmigung von Kreditdienstleistungen, die Bereitstellung oder Ablehnung von Wohnraum oder Versicherungen und, wie oben hervorgehoben, den Zugang zu Beschäftigung. Das Gesetz enthält Bestimmungen, um „algorithmische Diskriminierung“ zu bekämpfen, die illegale unterschiedliche Behandlungen oder ungerechtfertigte negative Auswirkungen darstellen, die auf geschützten Merkmalen wie Rasse, Geschlecht, Religion oder Behinderung basieren und aus dem Einsatz automatisierter Entscheidungswerkzeuge resultieren.

Verpflichtungen für Entwickler

Entwickler, die hochriskante KI-Systeme erstellen oder wesentlich modifizieren, unterliegen einer „angemessenen Sorgfaltspflicht“, um Verbraucher vor bekannten oder vorhersehbaren Diskriminierungsschäden zu schützen. Vor der Bereitstellung eines hochriskanten KI-Systems an einen Betreiber müssen Entwickler bestimmte Informationen offenlegen, einschließlich der beabsichtigten Verwendung des Systems, bekannter Einschränkungen und Maßnahmen zur Minderung algorithmischer Diskriminierung. Entwickler müssen diese Offenlegungen innerhalb von neunzig Tagen nach wesentlichen Änderungen aktualisieren.

Verpflichtungen für Betreiber

Wie Entwickler müssen auch Betreiber eine „angemessene Sorgfaltspflicht“ erfüllen, um algorithmische Diskriminierung zu verhindern. H.B. 2094 verlangt von Betreibern, eine Risikomanagementpolitik und ein Programm zu entwickeln und umzusetzen, die spezifisch für das hochriskante KI-System sind, das sie verwenden. Betreiber müssen vor der praktischen Anwendung eines hochriskanten KI-Systems eine Risikobewertung durchführen, die acht separate enumerierte Aspekte berücksichtigt, einschließlich des Zwecks des Systems und der potenziellen diskriminierenden Risiken.

Durchsetzung und Strafen

Unter H.B. 2094 kann nur der Generalstaatsanwalt die Anforderungen des Gesetzes durchsetzen. Allerdings kann die potenzielle Durchsetzung erheblichen Einfluss haben, da Verstöße zu zivilrechtlichen Ermittlungsaufforderungen, einstweiligen Verfügungen und zivilrechtlichen Strafen führen können. Generell können nicht vorsätzliche Verstöße gegen H.B. 2094 mit bis zu 1.000 USD Bußgeld sowie Anwaltsgebühren und Kosten belegt werden, während vorsätzliche Verstöße mit bis zu 10.000 USD pro Fall geahndet werden können.

Fazit

Das neue Gesetz von Virginia über hochriskante KI-Entwickler und -Betreiber signalisiert einen entscheidenden Wendepunkt in der Regulierung von künstlicher Intelligenz auf staatlicher Ebene und ist ein wahrscheinliches Zeichen für kommende Entwicklungen. Der Fokus des Gesetzes auf transparente Dokumentation, Fairness und Verbraucherinformationen unterstreicht die wachsende Nachfrage nach verantwortungsvoller KI-Praxis. Sowohl Entwickler als auch Betreiber müssen den Umfang ihrer Verantwortlichkeiten verstehen und sicherstellen, dass Verbraucher angemessene Informationen über ihre KI-Prozesse erhalten.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...