Q1 2025 Entwicklungen der Künstlichen Intelligenz in New York: Was Arbeitgeber über vorgeschlagene und verabschiedete Gesetzgebung wissen sollten
Im ersten Teil des Jahres 2025 trat New York anderen Bundesstaaten wie Colorado, Connecticut, New Jersey und Texas bei, die versuchten, die Künstliche Intelligenz (KI) auf staatlicher Ebene zu regulieren. Insbesondere wurden am 8. Januar 2025 Gesetzentwürfe, die sich mit dem Einsatz von KI-Entscheidungshilfen befassen, sowohl im Senat als auch in der Versammlung des Bundesstaates New York eingebracht. Der NY AI Act mit dem Gesetzentwurf S011692 konzentriert sich darauf, algorithmische Diskriminierung zu bekämpfen, indem die Verwendung bestimmter KI-Systeme, insbesondere im Bereich der Beschäftigung, reguliert und eingeschränkt wird.
Darüber hinaus würde der New York AI Consumer Protection Act mit dem Gesetzentwurf A007683 das allgemeine Wirtschaftsrecht ändern, um die Nutzung von KI-Algorithmen zu verhindern, die gegen geschützte Klassen diskriminieren, einschließlich im Beschäftigungsbereich. Diese Mitteilung diskutiert diese beiden Gesetzesentwürfe und gibt Empfehlungen für Arbeitgeber, während sie sich durch das Flickwerk aus vorgeschlagenen und verabschiedeten KI-Gesetzen und bundesstaatlicher Anleitung navigieren.
Senatsgesetz 1169
Am 8. Januar 2025 stellte die Senatorin von New York, Kristen Gonzalez, den NY AI Act vor. Sie erklärte: „Eine wachsende Anzahl von Forschungen zeigt, dass KI-Systeme, die ohne angemessene Tests, ausreichende Aufsicht und robuste Sicherheitsmaßnahmen eingeführt werden, Verbraucher schädigen und historisch benachteiligten Gruppen die vollständige Ausübung ihrer Bürgerrechte und Freiheiten verweigern können.“ Der NY AI Act würde alle „Verbraucher“ abdecken, definiert als alle Einwohner des Bundesstaates New York, einschließlich derjenigen, die Arbeitnehmer und Arbeitgeber sind.
Der NY AI Act legt fest, dass „die Legislative handeln muss, um sicherzustellen, dass alle Anwendungen von KI, insbesondere solche, die wichtige Lebensentscheidungen betreffen, frei von schädlichen Vorurteilen sind, unsere Privatsphäre schützen und dem Gemeinwohl dienen.“ Darüber hinaus muss New York, als „Heimat von Tausenden von Technologie-Startups“, einschließlich derjenigen, die mit KI experimentieren, die sichere Innovation im KI-Sektor priorisieren, indem klare Richtlinien für die Entwicklung, das Testen und die Validierung von KI bereitgestellt werden, sowohl vor der Markteinführung als auch während der gesamten Lebensdauer des Produkts.
Der NY AI Act unterscheidet sich von anderen vorgeschlagenen und verabschiedeten staatlichen KI-Gesetzen, da er das Recht auf private Klagen umfasst, das es den Einwohnern von New York ermöglicht, Klagen gegen Technologieunternehmen wegen Verstößen einzureichen. Außerdem sieht das Gesetz die Durchsetzung durch den Generalstaatsanwalt des Bundesstaates vor. Verbraucher haben das Recht, sich von automatisierten Entscheidungsprozessen abzumelden oder die Ergebnisse anzufechten.
Der NY AI Act definiert „algorithmische Diskriminierung“ als jede Bedingung, bei der der Einsatz eines KI-Systems zu ungerechtfertigter unterschiedlicher Behandlung oder Auswirkungen führt, die Menschen aufgrund ihres tatsächlichen oder wahrgenommenen Alters, ihrer Rasse, Ethnie, Religion, Geschlecht oder anderen geschützten Klassifikationen benachteiligt.
Versorgungspflichten der Anbieter
Der NY AI Act fordert, dass „Anbieter“, die ein hochriskantes KI-System für eine entscheidende Entscheidung einsetzen, bestimmten Verpflichtungen nachkommen müssen. Anbieter sind definiert als „jede Person, die in [New York] Geschäfte tätigt und ein hochriskantes KI-Entscheidungssystem einsetzt.“ Dies schließt Arbeitgeber in New York ein. Anbieter müssen dem Endbenutzer in klaren, auffälligen und verbraucherfreundlichen Bedingungen mitteilen, dass sie ein KI-System verwenden, das entscheidende Entscheidungen trifft, mindestens fünf Geschäftstage vor der Verwendung eines solchen Systems.
Zusätzlich müssen Anbieter, die ein hochriskantes KI-System für eine entscheidende Entscheidung einsetzen, den Endbenutzer innerhalb von fünf Tagen auf klare, auffällige und verbraucherfreundliche Weise informieren, wenn eine entscheidende Entscheidung vollständig von einem automatisierten System getroffen wurde. Der Anbieter muss dann einen Prozess zur Anfechtung der Entscheidung bereitstellen, der es dem Endbenutzer mindestens ermöglicht, (a) die Entscheidung formell anzufechten, (b) Informationen zur Unterstützung ihrer Position bereitzustellen und (c) eine bedeutende menschliche Überprüfung der Entscheidung zu erhalten.
Zusätzliche Anforderungen und Durchsetzung
Darüber hinaus müssen Anbieter vor der Verwendung eines hochriskanten KI-Systems, sechs Monate nach der Bereitstellung und mindestens alle 18 Monate danach, ein Audit durchführen. Unabhängig von den endgültigen Ergebnissen müssen die Anbieter alle durchgeführten Audits an den Generalstaatsanwalt übermitteln.
Die Durchsetzung ist entweder durch den Generalstaatsanwalt oder durch das Recht der Bürger auf private Klagen gestattet. Bei einem Verstoß kann der Generalstaatsanwalt eine einstweilige Verfügung beantragen, um die Fortdauer des Verstoßes zu unterbinden. Der Gerichtshof kann, wenn festgestellt wird, dass ein Verstoß stattgefunden hat, eine Geldstrafe von nicht mehr als 20.000 US-Dollar für jeden Verstoß verhängen.
Versammlungsbeschluss 768
Am 8. Januar 2025 stellte auch der Abgeordnete der Versammlung von New York, Alex Bores, den Protection Act vor. Ähnlich wie der NY AI Act zielt der Protection Act darauf ab, die Verwendung von KI-Algorithmen zu verhindern, die gegen geschützte Klassen diskriminieren.
Der Protection Act definiert „algorithmische Diskriminierung“ als jede Bedingung, bei der der Einsatz eines KI-Entscheidungssystems zu einer unrechtmäßigen unterschiedlichen Behandlung führt. Der Gesetzesentwurf verlangt ein „Bias- und Governance-Audit“, das eine unparteiische Bewertung durch einen unabhängigen Auditor umfasst, um die Auswirkungen eines KI-Entscheidungssystems auf Beschäftigte zu bewerten.
Wenn er verabschiedet wird, wird der Protection Act ab dem 1. Januar 2027 verlangen, dass jeder Anbieter eines hochriskanten KI-Entscheidungssystems angemessene Sorgfalt aufwendet, um Verbraucher vor bekannten oder voraussehbaren Risiken algorithmischer Diskriminierung zu schützen.
Überblick über die Anforderungen und Empfehlungen für Arbeitgeber
Arbeitgeber sollten sich darauf konzentrieren, mit dem bestehenden NYC AI Law konform zu sein und sich auf zukünftige staatliche Gesetzgebung vorzubereiten. Sie sollten:
- KI-Systeme bewerten: Identifizieren Sie alle KI-Systeme, die Ihr Unternehmen entwickelt oder einsetzt, insbesondere diejenigen, die in entscheidenden Entscheidungen im Zusammenhang mit der Beschäftigung verwendet werden.
- Datenmanagementrichtlinien überprüfen: Stellen Sie sicher, dass Ihre Datenmanagementrichtlinien den Standards zum Schutz der Datensicherheit entsprechen.
- Sich auf Audits vorbereiten: Machen Sie sich mit den Audit-Anforderungen vertraut und beginnen Sie mit der Vorbereitung möglicher Audits hochriskanter KI-Systeme.
- Interne Prozesse entwickeln: Etablieren Sie interne Prozesse für Mitarbeiteroffenlegungen im Zusammenhang mit Verstößen gegen KI-Systeme.
- Gesetzgebung überwachen: Bleiben Sie informiert über vorgeschlagene Gesetze und überprüfen Sie fortlaufend die Richtlinien von Bundesbehörden.
Die Arbeitgeber sollten proaktiv Maßnahmen ergreifen, um sicherzustellen, dass ihre Systeme den gesetzlichen Anforderungen entsprechen und gleichzeitig die Rechte der Verbraucher schützen.