Künstliche Intelligenz in New York: Wichtige Gesetzesänderungen für Arbeitgeber im Jahr 2025

Q1 2025 Entwicklungen der Künstlichen Intelligenz in New York: Was Arbeitgeber über vorgeschlagene und verabschiedete Gesetzgebung wissen sollten

Im ersten Teil des Jahres 2025 trat New York anderen Bundesstaaten wie Colorado, Connecticut, New Jersey und Texas bei, die versuchten, die Künstliche Intelligenz (KI) auf staatlicher Ebene zu regulieren. Insbesondere wurden am 8. Januar 2025 Gesetzentwürfe, die sich mit dem Einsatz von KI-Entscheidungshilfen befassen, sowohl im Senat als auch in der Versammlung des Bundesstaates New York eingebracht. Der NY AI Act mit dem Gesetzentwurf S011692 konzentriert sich darauf, algorithmische Diskriminierung zu bekämpfen, indem die Verwendung bestimmter KI-Systeme, insbesondere im Bereich der Beschäftigung, reguliert und eingeschränkt wird.

Darüber hinaus würde der New York AI Consumer Protection Act mit dem Gesetzentwurf A007683 das allgemeine Wirtschaftsrecht ändern, um die Nutzung von KI-Algorithmen zu verhindern, die gegen geschützte Klassen diskriminieren, einschließlich im Beschäftigungsbereich. Diese Mitteilung diskutiert diese beiden Gesetzesentwürfe und gibt Empfehlungen für Arbeitgeber, während sie sich durch das Flickwerk aus vorgeschlagenen und verabschiedeten KI-Gesetzen und bundesstaatlicher Anleitung navigieren.

Senatsgesetz 1169

Am 8. Januar 2025 stellte die Senatorin von New York, Kristen Gonzalez, den NY AI Act vor. Sie erklärte: „Eine wachsende Anzahl von Forschungen zeigt, dass KI-Systeme, die ohne angemessene Tests, ausreichende Aufsicht und robuste Sicherheitsmaßnahmen eingeführt werden, Verbraucher schädigen und historisch benachteiligten Gruppen die vollständige Ausübung ihrer Bürgerrechte und Freiheiten verweigern können.“ Der NY AI Act würde alle „Verbraucher“ abdecken, definiert als alle Einwohner des Bundesstaates New York, einschließlich derjenigen, die Arbeitnehmer und Arbeitgeber sind.

Der NY AI Act legt fest, dass „die Legislative handeln muss, um sicherzustellen, dass alle Anwendungen von KI, insbesondere solche, die wichtige Lebensentscheidungen betreffen, frei von schädlichen Vorurteilen sind, unsere Privatsphäre schützen und dem Gemeinwohl dienen.“ Darüber hinaus muss New York, als „Heimat von Tausenden von Technologie-Startups“, einschließlich derjenigen, die mit KI experimentieren, die sichere Innovation im KI-Sektor priorisieren, indem klare Richtlinien für die Entwicklung, das Testen und die Validierung von KI bereitgestellt werden, sowohl vor der Markteinführung als auch während der gesamten Lebensdauer des Produkts.

Der NY AI Act unterscheidet sich von anderen vorgeschlagenen und verabschiedeten staatlichen KI-Gesetzen, da er das Recht auf private Klagen umfasst, das es den Einwohnern von New York ermöglicht, Klagen gegen Technologieunternehmen wegen Verstößen einzureichen. Außerdem sieht das Gesetz die Durchsetzung durch den Generalstaatsanwalt des Bundesstaates vor. Verbraucher haben das Recht, sich von automatisierten Entscheidungsprozessen abzumelden oder die Ergebnisse anzufechten.

Der NY AI Act definiert „algorithmische Diskriminierung“ als jede Bedingung, bei der der Einsatz eines KI-Systems zu ungerechtfertigter unterschiedlicher Behandlung oder Auswirkungen führt, die Menschen aufgrund ihres tatsächlichen oder wahrgenommenen Alters, ihrer Rasse, Ethnie, Religion, Geschlecht oder anderen geschützten Klassifikationen benachteiligt.

Versorgungspflichten der Anbieter

Der NY AI Act fordert, dass „Anbieter“, die ein hochriskantes KI-System für eine entscheidende Entscheidung einsetzen, bestimmten Verpflichtungen nachkommen müssen. Anbieter sind definiert als „jede Person, die in [New York] Geschäfte tätigt und ein hochriskantes KI-Entscheidungssystem einsetzt.“ Dies schließt Arbeitgeber in New York ein. Anbieter müssen dem Endbenutzer in klaren, auffälligen und verbraucherfreundlichen Bedingungen mitteilen, dass sie ein KI-System verwenden, das entscheidende Entscheidungen trifft, mindestens fünf Geschäftstage vor der Verwendung eines solchen Systems.

Zusätzlich müssen Anbieter, die ein hochriskantes KI-System für eine entscheidende Entscheidung einsetzen, den Endbenutzer innerhalb von fünf Tagen auf klare, auffällige und verbraucherfreundliche Weise informieren, wenn eine entscheidende Entscheidung vollständig von einem automatisierten System getroffen wurde. Der Anbieter muss dann einen Prozess zur Anfechtung der Entscheidung bereitstellen, der es dem Endbenutzer mindestens ermöglicht, (a) die Entscheidung formell anzufechten, (b) Informationen zur Unterstützung ihrer Position bereitzustellen und (c) eine bedeutende menschliche Überprüfung der Entscheidung zu erhalten.

Zusätzliche Anforderungen und Durchsetzung

Darüber hinaus müssen Anbieter vor der Verwendung eines hochriskanten KI-Systems, sechs Monate nach der Bereitstellung und mindestens alle 18 Monate danach, ein Audit durchführen. Unabhängig von den endgültigen Ergebnissen müssen die Anbieter alle durchgeführten Audits an den Generalstaatsanwalt übermitteln.

Die Durchsetzung ist entweder durch den Generalstaatsanwalt oder durch das Recht der Bürger auf private Klagen gestattet. Bei einem Verstoß kann der Generalstaatsanwalt eine einstweilige Verfügung beantragen, um die Fortdauer des Verstoßes zu unterbinden. Der Gerichtshof kann, wenn festgestellt wird, dass ein Verstoß stattgefunden hat, eine Geldstrafe von nicht mehr als 20.000 US-Dollar für jeden Verstoß verhängen.

Versammlungsbeschluss 768

Am 8. Januar 2025 stellte auch der Abgeordnete der Versammlung von New York, Alex Bores, den Protection Act vor. Ähnlich wie der NY AI Act zielt der Protection Act darauf ab, die Verwendung von KI-Algorithmen zu verhindern, die gegen geschützte Klassen diskriminieren.

Der Protection Act definiert „algorithmische Diskriminierung“ als jede Bedingung, bei der der Einsatz eines KI-Entscheidungssystems zu einer unrechtmäßigen unterschiedlichen Behandlung führt. Der Gesetzesentwurf verlangt ein „Bias- und Governance-Audit“, das eine unparteiische Bewertung durch einen unabhängigen Auditor umfasst, um die Auswirkungen eines KI-Entscheidungssystems auf Beschäftigte zu bewerten.

Wenn er verabschiedet wird, wird der Protection Act ab dem 1. Januar 2027 verlangen, dass jeder Anbieter eines hochriskanten KI-Entscheidungssystems angemessene Sorgfalt aufwendet, um Verbraucher vor bekannten oder voraussehbaren Risiken algorithmischer Diskriminierung zu schützen.

Überblick über die Anforderungen und Empfehlungen für Arbeitgeber

Arbeitgeber sollten sich darauf konzentrieren, mit dem bestehenden NYC AI Law konform zu sein und sich auf zukünftige staatliche Gesetzgebung vorzubereiten. Sie sollten:

  • KI-Systeme bewerten: Identifizieren Sie alle KI-Systeme, die Ihr Unternehmen entwickelt oder einsetzt, insbesondere diejenigen, die in entscheidenden Entscheidungen im Zusammenhang mit der Beschäftigung verwendet werden.
  • Datenmanagementrichtlinien überprüfen: Stellen Sie sicher, dass Ihre Datenmanagementrichtlinien den Standards zum Schutz der Datensicherheit entsprechen.
  • Sich auf Audits vorbereiten: Machen Sie sich mit den Audit-Anforderungen vertraut und beginnen Sie mit der Vorbereitung möglicher Audits hochriskanter KI-Systeme.
  • Interne Prozesse entwickeln: Etablieren Sie interne Prozesse für Mitarbeiteroffenlegungen im Zusammenhang mit Verstößen gegen KI-Systeme.
  • Gesetzgebung überwachen: Bleiben Sie informiert über vorgeschlagene Gesetze und überprüfen Sie fortlaufend die Richtlinien von Bundesbehörden.

Die Arbeitgeber sollten proaktiv Maßnahmen ergreifen, um sicherzustellen, dass ihre Systeme den gesetzlichen Anforderungen entsprechen und gleichzeitig die Rechte der Verbraucher schützen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...