Gesetzliche Lücken bei KI: Colorado und Kalifornien im Fokus

Patchwork AI-Gesetze hinterlassen Lücken: Colorado und Kalifornienh2>

Die Besonderheit von b>KIb> besteht darin, dass unterschiedliche Anwendungen unterschiedlichen b>Regulierungenb> unterliegen können. Im b>Arbeitsumfeldb> können die b>Datenschutzrechteb> eines Kandidaten unter einem KI-Tool schwinden. Auf der einen Seite ist man ein „Verbraucher“ mit erkennbaren b>Datenschutzrechtenb>; auf der anderen Seite ist man ein „Bewerber“ oder „Mitarbeiter“, und diese Rechte ändern sich oder verschwinden sogar.p>

Colorado: Einblick in die Datenschutzgesetzeh3>

Colorado definiert „Verbraucher“ in einer Weise, die im Wesentlichen an der Tür zu b>HRb> stoppt. b>Mitarbeiterb>, b>Bewerberb> und kommerzielle Akteure sind ausgeschlossen, was bedeutet, dass das b>Opt-outb>-Recht unter Colorados Datenschutzgesetzen außerhalb des b>Interviewraumsb> bleibt. Das b>AI-Gesetzb> von Colorado bezeichnet Beschäftigungs- und Entscheidungsfindungen als „konsequent“, ohne diese mit den Opt-out-Rechten unter den Datenschutzgesetzen zu verknüpfen.p>

Das AI-Gesetz verlangt dennoch von HR-Teams, wie sie sich verhalten sollen. Vor einer Entscheidung müssen sie den Menschen eine klare b>Benachrichtigungb> zukommen lassen, die den Zweck und die Rolle des Systems erklärt. Nach einem nachteiligen Ergebnis müssen Arbeitgeber den Bewerbern Einzelheiten mitteilen: den Grund für die Entscheidung, einen Weg zur Korrektur ungenauer Daten und ein b>Berufungsverfahrenb>, das eine menschliche Überprüfung umfasst, wenn dies möglich ist.p>

Kalifornien: Ein anderer Ansatzh3>

Kalifornien verfolgt einen anderen Weg. Der b>Datenschutzreguliererb> des Bundesstaates betrachtet automatisierte Systeme, die Entscheidungen über Beschäftigung und Auftragnehmer treffen, als „signifikant“. Dies löst eine b>Vorabbenachrichtigungb> über die automatisierte Entscheidungsfindungstechnologie (ADMT) aus, ein Opt-out für diese signifikanten Entscheidungen und Antwortfristen für den Zugang und Berufungen. Wenn jemand opt-out, muss die Verwendung der ADMT für diese Person innerhalb von 15 b>Arbeitstagenb> eingestellt werden.p>

Die b>Bürgerrechtsregelnb> Kaliforniens decken ebenfalls automatisierte Werkzeuge ab, die für die Einstellung, Beförderung und andere Personalentscheidungen verwendet werden, und konzentrieren sich auf die Pflichten des Arbeitgebers hinsichtlich Diskriminierungsrisiken, Tests und Dokumentation.p>

Zusammenfassung der regulatorischen Anforderungenh3>

In Colorado sollten die Schritte in folgender Reihenfolge erfolgen: b>Benachrichtigungb>, b>Gründeb>, b>Korrekturb>, b>Berufungb>. In Kalifornien hingegen gibt es zwei Regime. Zunächst treten die ADMT-Regeln in Kraft, wenn die Automatisierung eine signifikante Beschäftigungsentscheidung trifft. Das bedeutet Vorabbenachrichtigung, Opt-out, Zugang und Erklärungen sowie Risikobewertungen.p>

Des Weiteren läuft parallel ein b>Bürgerrechtsrahmenb>, der Diskriminierung innerhalb desselben Einstellungsprozesses überwacht. Für Opt-out-Rechte sollten Prozesse mit robusten menschlichen Berufungsmechanismen und bestimmten Entscheidungen verbunden sein, die mit b>Schutzmaßnahmenb> versehen sind.p>

Die Herausforderungen der Einhaltungh3>

Die größte Herausforderung sind nicht nur die Regeln, sondern auch die b>Bezeichnungenb>. Die Rechte der Menschen ändern sich nicht mit dem tatsächlichen Risiko, sondern je nachdem, welche Bezeichnung eine Person trägt. Man beginnt als Verbraucher und wird zu einem Bewerber, und plötzlich schalten sich unterschiedliche gesetzliche Bestimmungen ein und aus. Dies schafft Lücken für die Menschen und Kopfschmerzen für die Compliance-Teams.p>

Um diese Schwierigkeiten zu vermeiden, sollte ein klar verständlicher b>Rechtsrahmenb> entwickelt werden, der einer Person entlang des gesamten Prozesses folgt, unabhängig von deren Bezeichnung. Jedes rechtliche Element in den Benachrichtigungen und Aufzeichnungen sollte auf diesen Rahmen zurückgeführt werden, damit die Menschen wissen, was sie erwartet und Auditoren die Durchgängigkeit erkennen können.p>

Empfehlungen für Gesetzgeber und Regulierungsbehördenh3>

Für Gesetzgeber und Regulierungsbehörden gibt es zwei nachhaltige Wege, die die heutige Patchwork-Situation übertreffen: Erstens, die Schaffung von branchenspezifischen KI-Regeln mit klaren Ausnahmen von widersprüchlichen Datenschutzpflichten, damit HR-Teams nicht ein regulatorisches Twister-Spiel spielen müssen. Zweitens, die Harmonisierung von Definitionen, damit die Menschen über eine automatisierte Entscheidung hinweg die gleichen grundlegenden Rechte behalten, egal wo sie in der Organisationsstruktur stehen.p>

Jeder dieser Wege bietet Arbeitnehmenden und Arbeitgebern eine stabilere Übersicht. Dies könnte der einzige Weg sein, um die Zugangswege offen zu halten und die Schutzmaßnahmen real zu gestalten.p>

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...