Die Zukunft der KI-Regulierung: Virginia auf dem Weg, der zweite Staat zu werden, der Gesetze für Hochrisiko-KI-Systeme erlassen wird
Virginia hat einen Schritt näher daran gemacht, der zweite Staat (nach Colorado) zu werden, der umfassende Gesetze zur Bekämpfung von Diskriminierung durch den Einsatz von künstlicher Intelligenz (KI) erlassen wird. Am 12. Februar 2025 verabschiedete der Virginia State Senate das Gesetz über Hochrisiko-KI-Entwickler und -Betreiber (H.B. 2094), das, falls es in Kraft tritt, den Einsatz von KI in verschiedenen Kontexten regulieren wird, einschließlich der Entscheidungsfindung über den Zugang zu Beschäftigung.
Schnelle Hinweise
– Falls das Gesetz von Gouverneur Youngkin unterzeichnet wird, tritt es am 1. Juli 2026 in Kraft und gibt betroffenen Unternehmen ausreichend Zeit, sich auf die Anforderungen vorzubereiten.
– Das Gesetz gilt für KI-Systeme, die autonom erhebliche Entscheidungen treffen oder maßgeblich beeinflussen, wie zum Beispiel bei Krediten, Wohnraum, Bildung und Gesundheitsversorgung sowie potenziell bei der Einstellung von Mitarbeitern.
– Obwohl H.B. 2094 Individuen, die in einem kommerziellen oder beschäftigungstechnischen Kontext handeln, von der Definition des „Verbrauchers“ ausschließt, umfasst der Begriff „folgenreiche Entscheidung“ spezifisch Entscheidungen mit rechtlichen oder ähnlichen Auswirkungen bezüglich des Zugangs zu Beschäftigung, sodass Bewerber offensichtlich unter die Anforderungen fallen.
Überblick
Das Gesetz von Virginia etabliert eine Pflicht zur angemessenen Sorgfalt für Unternehmen, die automatisierte Entscheidungssysteme in mehreren regulierten Bereichen einsetzen, einschließlich Beschäftigung, Finanzdienstleistungen und Gesundheitswesen. Der regulatorische Rahmen gilt speziell für „hochriskante künstliche Intelligenz“-Systeme, die „speziell dazu bestimmt sind, autonom“ Entscheidungen zu treffen oder maßgeblich zur Entscheidungsfindung beizutragen. Diese gesetzliche Formulierung schränkt den Anwendungsbereich im Vergleich zu Colorados Ansatz erheblich ein.
Wer ist ein „Verbraucher“?
Ein zentrales Ziel dieses Gesetzes ist es, „Verbraucher“ vor algorithmischer Diskriminierung zu schützen, insbesondere wenn automatisierte Systeme verwendet werden, um entscheidende Entscheidungen über Einzelpersonen zu treffen. Das Gesetz definiert einen „Verbraucher“ als natürliche Person, die Einwohner von Virginia ist und in einem individuellen oder Haushaltskontext handelt. H.B. 2094 enthält eine spezifische Ausschlussregel für Personen, die in einem kommerziellen oder beschäftigungstechnischen Kontext handeln.
Eine potenzielle Quelle der Verwirrung ist, wie „Zugang zu Beschäftigung“ eine „folgenreiche Entscheidung“ unter dem Gesetz sein kann, während gleichzeitig diejenigen im Beschäftigungskontext von der Definition der „Verbraucher“ ausgeschlossen werden. Die logische Lesart dieser widersprüchlichen Definitionen deutet darauf hin, dass Bewerber für eine Stelle nicht in einem Beschäftigungskapazität im Namen eines Unternehmens handeln; stattdessen sind sie private Einzelpersonen, die aus persönlichen Gründen eine Anstellung suchen.
Hochrisiko-KI-Systeme und folgenreiche Entscheidungen
H.B. 2094 reguliert nur solche KI-Systeme, die als „hochriskant“ gelten. Solche Systeme treffen autonom erhebliche Entscheidungen, die grundlegende Rechte oder Chancen betreffen, wie die Zulassung zu Bildungsprogrammen, die Genehmigung von Kreditdienstleistungen, die Bereitstellung oder Ablehnung von Wohnraum oder Versicherungen und, wie oben hervorgehoben, den Zugang zu Beschäftigung. Das Gesetz enthält Bestimmungen, um „algorithmische Diskriminierung“ zu bekämpfen, die illegale unterschiedliche Behandlungen oder ungerechtfertigte negative Auswirkungen darstellen, die auf geschützten Merkmalen wie Rasse, Geschlecht, Religion oder Behinderung basieren und aus dem Einsatz automatisierter Entscheidungswerkzeuge resultieren.
Verpflichtungen für Entwickler
Entwickler, die hochriskante KI-Systeme erstellen oder wesentlich modifizieren, unterliegen einer „angemessenen Sorgfaltspflicht“, um Verbraucher vor bekannten oder vorhersehbaren Diskriminierungsschäden zu schützen. Vor der Bereitstellung eines hochriskanten KI-Systems an einen Betreiber müssen Entwickler bestimmte Informationen offenlegen, einschließlich der beabsichtigten Verwendung des Systems, bekannter Einschränkungen und Maßnahmen zur Minderung algorithmischer Diskriminierung. Entwickler müssen diese Offenlegungen innerhalb von neunzig Tagen nach wesentlichen Änderungen aktualisieren.
Verpflichtungen für Betreiber
Wie Entwickler müssen auch Betreiber eine „angemessene Sorgfaltspflicht“ erfüllen, um algorithmische Diskriminierung zu verhindern. H.B. 2094 verlangt von Betreibern, eine Risikomanagementpolitik und ein Programm zu entwickeln und umzusetzen, die spezifisch für das hochriskante KI-System sind, das sie verwenden. Betreiber müssen vor der praktischen Anwendung eines hochriskanten KI-Systems eine Risikobewertung durchführen, die acht separate enumerierte Aspekte berücksichtigt, einschließlich des Zwecks des Systems und der potenziellen diskriminierenden Risiken.
Durchsetzung und Strafen
Unter H.B. 2094 kann nur der Generalstaatsanwalt die Anforderungen des Gesetzes durchsetzen. Allerdings kann die potenzielle Durchsetzung erheblichen Einfluss haben, da Verstöße zu zivilrechtlichen Ermittlungsaufforderungen, einstweiligen Verfügungen und zivilrechtlichen Strafen führen können. Generell können nicht vorsätzliche Verstöße gegen H.B. 2094 mit bis zu 1.000 USD Bußgeld sowie Anwaltsgebühren und Kosten belegt werden, während vorsätzliche Verstöße mit bis zu 10.000 USD pro Fall geahndet werden können.
Fazit
Das neue Gesetz von Virginia über hochriskante KI-Entwickler und -Betreiber signalisiert einen entscheidenden Wendepunkt in der Regulierung von künstlicher Intelligenz auf staatlicher Ebene und ist ein wahrscheinliches Zeichen für kommende Entwicklungen. Der Fokus des Gesetzes auf transparente Dokumentation, Fairness und Verbraucherinformationen unterstreicht die wachsende Nachfrage nach verantwortungsvoller KI-Praxis. Sowohl Entwickler als auch Betreiber müssen den Umfang ihrer Verantwortlichkeiten verstehen und sicherstellen, dass Verbraucher angemessene Informationen über ihre KI-Prozesse erhalten.