Kaliforniens neue AI-Beschäftigungsregeln: Wichtige Informationen für Arbeitgeber

Kaliforniens neue potenzielle AI-Beschäftigungsregulierungen: Was Arbeitgeber wissen müssen

Kalifornien hat bahnbrechende Regulierungen finalisiert, die direkt die Nutzung von Künstlicher Intelligenz (AI) und automatisierten Entscheidungssystemen (ADS) im Beschäftigungsbereich ansprechen. Diese Regeln, die im März 2025 vom California Civil Rights Council genehmigt wurden, senden eine klare Botschaft: Während AI-Tools in der Rekrutierung, Einstellung und Personalverwaltung wertvoll sein können, dürfen sie nicht diskriminierend gegen Bewerber oder Mitarbeiter eingesetzt werden.

Die Regulierungen sollen später in diesem Jahr in Kraft treten, sobald sie vom Office of Administrative Law genehmigt werden. Hier ist, was Arbeitgeber in Kalifornien wissen müssen.

1. Zweck und Umfang der neuen Regulierungen

Die Regulierungen zielen darauf ab, sicherzustellen, dass die zunehmende Nutzung von Technologie bei Beschäftigungsentscheidungen mit dem Fair Employment and Housing Act (FEHA) übereinstimmt. Im Wesentlichen erweitern die Regeln den traditionellen Antidiskriminierungsschutz auf das digitale Zeitalter, indem sie:

  • definieren, wann und wie automatisierte Systeme unter das kalifornische Arbeitsrecht fallen,
  • diskriminierende Auswirkungen von ADS verbieten,
  • Aufbewahrungs- und Benachrichtigungspflichten für Arbeitgeber festlegen, die diese Technologien nutzen.

2. Was ist ein automatisiertes Entscheidungssystem (ADS)?

Die Regulierungen definieren ein ADS als: “Ein computergestützter Prozess, der eine Entscheidung trifft oder die menschliche Entscheidungsfindung bezüglich eines Beschäftigungsvorteils erleichtert.” Dazu gehören Tools, die auf Künstlicher Intelligenz, Maschinenlernen, Algorithmen oder Statistik basieren.

Beispiele für ADS:

  • Lebenslauf-Scanner
  • Automatisierte Interview-Bewertungssysteme, die prognostische Bewertungen über Bewerber oder Mitarbeiter abgeben, Fähigkeiten, Eigenschaften oder Persönlichkeitseigenschaften messen, oder Bewerber kategorisieren und empfehlen.
  • Video-Software, die Stimme oder Gesichtsausdrücke analysiert.
  • Tools, die Kandidaten priorisieren oder einstufen.
  • Systeme, die Stellenanzeigen an bestimmte Gruppen richten.

Ausgeschlossen: Grundlegende Tools wie Textverarbeitungsprogramme, Tabellenkalkulationen und Sicherheitssoftware, solange sie keine Beschäftigungsentscheidungen treffen oder beeinflussen.

3. Wichtige Verbote und Anforderungen

Keine Diskriminierung: Die Regulierungen stellen klar, dass es unrechtmäßig ist, ein automatisiertes Entscheidungssystem oder Auswahlkriterien zu verwenden, die gegen einen Bewerber oder Mitarbeiter oder eine Gruppe von Bewerbern oder Mitarbeitern aufgrund eines geschützten Merkmals diskriminieren.

Besondere HochrisikobereicheÜberprüfung des strafrechtlichen Hintergrunds: Arbeitgeber dürfen ADS nicht verwenden, um vor einer bedingten Einstellung nach der Strafgeschichte zu suchen. Selbst nach einem Angebot müssen sie individuelle Bewertungen durchführen und dürfen sich nicht ausschließlich auf automatisierte Ergebnisse verlassen.

Pflicht zur Bereitstellung von Unterkünften: Wenn ein AI-Tool einen Bewerber mit einer Behinderung oder einem geschützten Merkmal benachteiligen könnte, muss der Arbeitgeber eine angemessene Unterkunft anbieten (z. B. alternative Bewertungsformate).

Dritte Anbieter können Haftung erzeugen: Wenn ein Anbieter oder Personalvermittler ein ADS-Tool in Ihrem Namen verwendet, können Sie dennoch rechtlich verantwortlich sein. Verträge sollten die Verantwortlichkeiten in Bezug auf die Einhaltung von Vorschriften klären und Entschädigungsklauseln enthalten.

4. Dokumentations- und Compliance-Anforderungen

Arbeitgeber, die ADS nutzen, müssen:

  • Relevante Daten, einschließlich der Ergebnisse automatisierter Entscheidungen und demografischer Daten, mindestens vier Jahre lang aufbewahren.
  • Aufzeichnungen getrennt von Personalakten führen.
  • Antibias-Tests für AI-Tools durchführen und dokumentieren.
  • Angemessen auf Testergebnisse reagieren.

5. Nächste Schritte für Arbeitgeber

Wenn die Regulierungen in Kalifornien angenommen werden, sollten Arbeitgeber:

  • Alle verwendeten ADS und AI-Tools überprüfen – Eine Prüfung der Technologien durchführen, die in der Rekrutierung, Einstellung, Beförderung und Disziplin eingesetzt werden.
  • Rechtsberater oder Compliance-Experten einbeziehen – Bewerten, ob die Tools wahrscheinlich diskriminierende Auswirkungen haben oder gegen den FEHA verstoßen.
  • Transparenz von Anbietern anfordern – Informationen zu Bias-Tests, Trainingsdaten und Systemlogik anfordern.
  • Benachrichtigungs- und Unterkunftsrichtlinien implementieren – Bewerber klar informieren, wenn ADS verwendet werden, und wie sie eine Unterkunft anfordern können.
  • Menschliche Aufsicht nutzen – Sich nicht ausschließlich auf AI für Beschäftigungsentscheidungen verlassen. Ein Mensch sollte die endgültigen Entscheidungen überprüfen und genehmigen.

Wenn diese Regulierungen angenommen werden, könnte Kalifornien zusammen mit Jurisdiktionen wie New York City, Illinois und Colorado in die Regulierung von AI am Arbeitsplatz eintreten. Während die Bundesregierung noch ihren Ansatz entwickelt, könnten Staaten wie Kalifornien damit beginnen, zu regulieren, wie AI bei Beschäftigungsentscheidungen eingesetzt werden kann.

Arbeitgeber, die in Kalifornien tätig sind, müssen AI und Automatisierung mit derselben Sorgfalt und Sorgfalt behandeln wie jede andere Beschäftigungspraktik, die den Antidiskriminierungsgesetzen unterliegt.

More Insights

Risiken der KI: Was Unternehmen ignorieren sollten

Im Jahr 2024 stellte der Softwareanbieter Sage seinen generativen KI-Assistenten ein, nachdem Benutzer berichtet hatten, dass sensible Finanzdaten zwischen Konten geleakt wurden. Unternehmen stehen...

Die Notwendigkeit für KI-Sicherheit: Chancen und Herausforderungen

Die Revolution der künstlichen Intelligenz ist keine ferne Verheißung mehr – sie ist hier und verändert Branchen, Volkswirtschaften und das tägliche Leben. Um die Macht der KI verantwortungsvoll zu...

Künstliche Intelligenz im Polizeiwesen: Chancen und Herausforderungen

Gesetzesvollzugsbehörden nutzen zunehmend künstliche Intelligenz (KI), um ihre Abläufe zu verbessern, insbesondere durch erweiterte Möglichkeiten für prädiktive Polizeiarbeit. Der globale Markt für...

Kenias Führungsrolle bei UN-Vereinbarung zur KI-Governance

Kenia hat einen bedeutenden diplomatischen Erfolg erzielt, nachdem alle 193 Mitgliedstaaten der Vereinten Nationen einstimmig beschlossen haben, zwei wegweisende Institutionen zur Regulierung der...

Stakeholder-Forderung nach einem Rahmen für die KI-Governance

Die Stakeholder forderten die Entwicklung eines Governance-Rahmens für Künstliche Intelligenz (KI), um sicherzustellen, dass diese verantwortungsvoll eingesetzt wird. Diese Aufforderung wurde auf der...

Wichtige Richtlinien für die KI-Einführung im Gesundheitswesen

Die AMA hat Leitlinien für die Einführung und Governance von Künstlicher Intelligenz (KI) in Gesundheitssystemen veröffentlicht, die für CMOs und andere Führungskräfte im Gesundheitswesen wichtig...

UN richtet internationales Gremium zur KI-Governance ein

Die Generalversammlung der Vereinten Nationen hat eine Resolution verabschiedet, die die Modalitäten zur Einrichtung eines unabhängigen internationalen wissenschaftlichen Panels für Künstliche...

Neue Cyberbedrohungen: Von Datenvergiftung zu KI-Agenten

Künstliche Intelligenz (KI)-Tools verbreiten sich rasant in verschiedenen Branchen, was neue Möglichkeiten zur Effizienzsteigerung bietet, aber auch das Risiko von Cyberangriffen erhöht. Während KI...