Virginia setzt Maßstäbe für KI-Regulierung

Die Zukunft der KI-Regulierung: Virginia auf dem Weg, der zweite Staat zu werden, der Gesetze für Hochrisiko-KI-Systeme erlassen wird

Virginia hat einen Schritt näher daran gemacht, der zweite Staat (nach Colorado) zu werden, der umfassende Gesetze zur Bekämpfung von Diskriminierung durch den Einsatz von künstlicher Intelligenz (KI) erlassen wird. Am 12. Februar 2025 verabschiedete der Virginia State Senate das Gesetz über Hochrisiko-KI-Entwickler und -Betreiber (H.B. 2094), das, falls es in Kraft tritt, den Einsatz von KI in verschiedenen Kontexten regulieren wird, einschließlich der Entscheidungsfindung über den Zugang zu Beschäftigung.

Schnelle Hinweise

– Falls das Gesetz von Gouverneur Youngkin unterzeichnet wird, tritt es am 1. Juli 2026 in Kraft und gibt betroffenen Unternehmen ausreichend Zeit, sich auf die Anforderungen vorzubereiten.
– Das Gesetz gilt für KI-Systeme, die autonom erhebliche Entscheidungen treffen oder maßgeblich beeinflussen, wie zum Beispiel bei Krediten, Wohnraum, Bildung und Gesundheitsversorgung sowie potenziell bei der Einstellung von Mitarbeitern.
– Obwohl H.B. 2094 Individuen, die in einem kommerziellen oder beschäftigungstechnischen Kontext handeln, von der Definition des „Verbrauchers“ ausschließt, umfasst der Begriff „folgenreiche Entscheidung“ spezifisch Entscheidungen mit rechtlichen oder ähnlichen Auswirkungen bezüglich des Zugangs zu Beschäftigung, sodass Bewerber offensichtlich unter die Anforderungen fallen.

Überblick

Das Gesetz von Virginia etabliert eine Pflicht zur angemessenen Sorgfalt für Unternehmen, die automatisierte Entscheidungssysteme in mehreren regulierten Bereichen einsetzen, einschließlich Beschäftigung, Finanzdienstleistungen und Gesundheitswesen. Der regulatorische Rahmen gilt speziell für „hochriskante künstliche Intelligenz“-Systeme, die „speziell dazu bestimmt sind, autonom“ Entscheidungen zu treffen oder maßgeblich zur Entscheidungsfindung beizutragen. Diese gesetzliche Formulierung schränkt den Anwendungsbereich im Vergleich zu Colorados Ansatz erheblich ein.

Wer ist ein „Verbraucher“?

Ein zentrales Ziel dieses Gesetzes ist es, „Verbraucher“ vor algorithmischer Diskriminierung zu schützen, insbesondere wenn automatisierte Systeme verwendet werden, um entscheidende Entscheidungen über Einzelpersonen zu treffen. Das Gesetz definiert einen „Verbraucher“ als natürliche Person, die Einwohner von Virginia ist und in einem individuellen oder Haushaltskontext handelt. H.B. 2094 enthält eine spezifische Ausschlussregel für Personen, die in einem kommerziellen oder beschäftigungstechnischen Kontext handeln.

Eine potenzielle Quelle der Verwirrung ist, wie „Zugang zu Beschäftigung“ eine „folgenreiche Entscheidung“ unter dem Gesetz sein kann, während gleichzeitig diejenigen im Beschäftigungskontext von der Definition der „Verbraucher“ ausgeschlossen werden. Die logische Lesart dieser widersprüchlichen Definitionen deutet darauf hin, dass Bewerber für eine Stelle nicht in einem Beschäftigungskapazität im Namen eines Unternehmens handeln; stattdessen sind sie private Einzelpersonen, die aus persönlichen Gründen eine Anstellung suchen.

Hochrisiko-KI-Systeme und folgenreiche Entscheidungen

H.B. 2094 reguliert nur solche KI-Systeme, die als „hochriskant“ gelten. Solche Systeme treffen autonom erhebliche Entscheidungen, die grundlegende Rechte oder Chancen betreffen, wie die Zulassung zu Bildungsprogrammen, die Genehmigung von Kreditdienstleistungen, die Bereitstellung oder Ablehnung von Wohnraum oder Versicherungen und, wie oben hervorgehoben, den Zugang zu Beschäftigung. Das Gesetz enthält Bestimmungen, um „algorithmische Diskriminierung“ zu bekämpfen, die illegale unterschiedliche Behandlungen oder ungerechtfertigte negative Auswirkungen darstellen, die auf geschützten Merkmalen wie Rasse, Geschlecht, Religion oder Behinderung basieren und aus dem Einsatz automatisierter Entscheidungswerkzeuge resultieren.

Verpflichtungen für Entwickler

Entwickler, die hochriskante KI-Systeme erstellen oder wesentlich modifizieren, unterliegen einer „angemessenen Sorgfaltspflicht“, um Verbraucher vor bekannten oder vorhersehbaren Diskriminierungsschäden zu schützen. Vor der Bereitstellung eines hochriskanten KI-Systems an einen Betreiber müssen Entwickler bestimmte Informationen offenlegen, einschließlich der beabsichtigten Verwendung des Systems, bekannter Einschränkungen und Maßnahmen zur Minderung algorithmischer Diskriminierung. Entwickler müssen diese Offenlegungen innerhalb von neunzig Tagen nach wesentlichen Änderungen aktualisieren.

Verpflichtungen für Betreiber

Wie Entwickler müssen auch Betreiber eine „angemessene Sorgfaltspflicht“ erfüllen, um algorithmische Diskriminierung zu verhindern. H.B. 2094 verlangt von Betreibern, eine Risikomanagementpolitik und ein Programm zu entwickeln und umzusetzen, die spezifisch für das hochriskante KI-System sind, das sie verwenden. Betreiber müssen vor der praktischen Anwendung eines hochriskanten KI-Systems eine Risikobewertung durchführen, die acht separate enumerierte Aspekte berücksichtigt, einschließlich des Zwecks des Systems und der potenziellen diskriminierenden Risiken.

Durchsetzung und Strafen

Unter H.B. 2094 kann nur der Generalstaatsanwalt die Anforderungen des Gesetzes durchsetzen. Allerdings kann die potenzielle Durchsetzung erheblichen Einfluss haben, da Verstöße zu zivilrechtlichen Ermittlungsaufforderungen, einstweiligen Verfügungen und zivilrechtlichen Strafen führen können. Generell können nicht vorsätzliche Verstöße gegen H.B. 2094 mit bis zu 1.000 USD Bußgeld sowie Anwaltsgebühren und Kosten belegt werden, während vorsätzliche Verstöße mit bis zu 10.000 USD pro Fall geahndet werden können.

Fazit

Das neue Gesetz von Virginia über hochriskante KI-Entwickler und -Betreiber signalisiert einen entscheidenden Wendepunkt in der Regulierung von künstlicher Intelligenz auf staatlicher Ebene und ist ein wahrscheinliches Zeichen für kommende Entwicklungen. Der Fokus des Gesetzes auf transparente Dokumentation, Fairness und Verbraucherinformationen unterstreicht die wachsende Nachfrage nach verantwortungsvoller KI-Praxis. Sowohl Entwickler als auch Betreiber müssen den Umfang ihrer Verantwortlichkeiten verstehen und sicherstellen, dass Verbraucher angemessene Informationen über ihre KI-Prozesse erhalten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...