Kaliforniens neue potenzielle AI-Beschäftigungsregulierungen: Was Arbeitgeber wissen müssen
Kalifornien hat bahnbrechende Regulierungen finalisiert, die direkt die Nutzung von Künstlicher Intelligenz (AI) und automatisierten Entscheidungssystemen (ADS) im Beschäftigungsbereich ansprechen. Diese Regeln, die im März 2025 vom California Civil Rights Council genehmigt wurden, senden eine klare Botschaft: Während AI-Tools in der Rekrutierung, Einstellung und Personalverwaltung wertvoll sein können, dürfen sie nicht diskriminierend gegen Bewerber oder Mitarbeiter eingesetzt werden.
Die Regulierungen sollen später in diesem Jahr in Kraft treten, sobald sie vom Office of Administrative Law genehmigt werden. Hier ist, was Arbeitgeber in Kalifornien wissen müssen.
1. Zweck und Umfang der neuen Regulierungen
Die Regulierungen zielen darauf ab, sicherzustellen, dass die zunehmende Nutzung von Technologie bei Beschäftigungsentscheidungen mit dem Fair Employment and Housing Act (FEHA) übereinstimmt. Im Wesentlichen erweitern die Regeln den traditionellen Antidiskriminierungsschutz auf das digitale Zeitalter, indem sie:
- definieren, wann und wie automatisierte Systeme unter das kalifornische Arbeitsrecht fallen,
- diskriminierende Auswirkungen von ADS verbieten,
- Aufbewahrungs- und Benachrichtigungspflichten für Arbeitgeber festlegen, die diese Technologien nutzen.
2. Was ist ein automatisiertes Entscheidungssystem (ADS)?
Die Regulierungen definieren ein ADS als: “Ein computergestützter Prozess, der eine Entscheidung trifft oder die menschliche Entscheidungsfindung bezüglich eines Beschäftigungsvorteils erleichtert.” Dazu gehören Tools, die auf Künstlicher Intelligenz, Maschinenlernen, Algorithmen oder Statistik basieren.
Beispiele für ADS:
- Lebenslauf-Scanner
- Automatisierte Interview-Bewertungssysteme, die prognostische Bewertungen über Bewerber oder Mitarbeiter abgeben, Fähigkeiten, Eigenschaften oder Persönlichkeitseigenschaften messen, oder Bewerber kategorisieren und empfehlen.
- Video-Software, die Stimme oder Gesichtsausdrücke analysiert.
- Tools, die Kandidaten priorisieren oder einstufen.
- Systeme, die Stellenanzeigen an bestimmte Gruppen richten.
Ausgeschlossen: Grundlegende Tools wie Textverarbeitungsprogramme, Tabellenkalkulationen und Sicherheitssoftware, solange sie keine Beschäftigungsentscheidungen treffen oder beeinflussen.
3. Wichtige Verbote und Anforderungen
Keine Diskriminierung: Die Regulierungen stellen klar, dass es unrechtmäßig ist, ein automatisiertes Entscheidungssystem oder Auswahlkriterien zu verwenden, die gegen einen Bewerber oder Mitarbeiter oder eine Gruppe von Bewerbern oder Mitarbeitern aufgrund eines geschützten Merkmals diskriminieren.
Besondere Hochrisikobereiche – Überprüfung des strafrechtlichen Hintergrunds: Arbeitgeber dürfen ADS nicht verwenden, um vor einer bedingten Einstellung nach der Strafgeschichte zu suchen. Selbst nach einem Angebot müssen sie individuelle Bewertungen durchführen und dürfen sich nicht ausschließlich auf automatisierte Ergebnisse verlassen.
Pflicht zur Bereitstellung von Unterkünften: Wenn ein AI-Tool einen Bewerber mit einer Behinderung oder einem geschützten Merkmal benachteiligen könnte, muss der Arbeitgeber eine angemessene Unterkunft anbieten (z. B. alternative Bewertungsformate).
Dritte Anbieter können Haftung erzeugen: Wenn ein Anbieter oder Personalvermittler ein ADS-Tool in Ihrem Namen verwendet, können Sie dennoch rechtlich verantwortlich sein. Verträge sollten die Verantwortlichkeiten in Bezug auf die Einhaltung von Vorschriften klären und Entschädigungsklauseln enthalten.
4. Dokumentations- und Compliance-Anforderungen
Arbeitgeber, die ADS nutzen, müssen:
- Relevante Daten, einschließlich der Ergebnisse automatisierter Entscheidungen und demografischer Daten, mindestens vier Jahre lang aufbewahren.
- Aufzeichnungen getrennt von Personalakten führen.
- Antibias-Tests für AI-Tools durchführen und dokumentieren.
- Angemessen auf Testergebnisse reagieren.
5. Nächste Schritte für Arbeitgeber
Wenn die Regulierungen in Kalifornien angenommen werden, sollten Arbeitgeber:
- Alle verwendeten ADS und AI-Tools überprüfen – Eine Prüfung der Technologien durchführen, die in der Rekrutierung, Einstellung, Beförderung und Disziplin eingesetzt werden.
- Rechtsberater oder Compliance-Experten einbeziehen – Bewerten, ob die Tools wahrscheinlich diskriminierende Auswirkungen haben oder gegen den FEHA verstoßen.
- Transparenz von Anbietern anfordern – Informationen zu Bias-Tests, Trainingsdaten und Systemlogik anfordern.
- Benachrichtigungs- und Unterkunftsrichtlinien implementieren – Bewerber klar informieren, wenn ADS verwendet werden, und wie sie eine Unterkunft anfordern können.
- Menschliche Aufsicht nutzen – Sich nicht ausschließlich auf AI für Beschäftigungsentscheidungen verlassen. Ein Mensch sollte die endgültigen Entscheidungen überprüfen und genehmigen.
Wenn diese Regulierungen angenommen werden, könnte Kalifornien zusammen mit Jurisdiktionen wie New York City, Illinois und Colorado in die Regulierung von AI am Arbeitsplatz eintreten. Während die Bundesregierung noch ihren Ansatz entwickelt, könnten Staaten wie Kalifornien damit beginnen, zu regulieren, wie AI bei Beschäftigungsentscheidungen eingesetzt werden kann.
Arbeitgeber, die in Kalifornien tätig sind, müssen AI und Automatisierung mit derselben Sorgfalt und Sorgfalt behandeln wie jede andere Beschäftigungspraktik, die den Antidiskriminierungsgesetzen unterliegt.