Kaliforniens neue AI-Beschäftigungsregeln: Wichtige Informationen für Arbeitgeber

Kaliforniens neue potenzielle AI-Beschäftigungsregulierungen: Was Arbeitgeber wissen müssen

Kalifornien hat bahnbrechende Regulierungen finalisiert, die direkt die Nutzung von Künstlicher Intelligenz (AI) und automatisierten Entscheidungssystemen (ADS) im Beschäftigungsbereich ansprechen. Diese Regeln, die im März 2025 vom California Civil Rights Council genehmigt wurden, senden eine klare Botschaft: Während AI-Tools in der Rekrutierung, Einstellung und Personalverwaltung wertvoll sein können, dürfen sie nicht diskriminierend gegen Bewerber oder Mitarbeiter eingesetzt werden.

Die Regulierungen sollen später in diesem Jahr in Kraft treten, sobald sie vom Office of Administrative Law genehmigt werden. Hier ist, was Arbeitgeber in Kalifornien wissen müssen.

1. Zweck und Umfang der neuen Regulierungen

Die Regulierungen zielen darauf ab, sicherzustellen, dass die zunehmende Nutzung von Technologie bei Beschäftigungsentscheidungen mit dem Fair Employment and Housing Act (FEHA) übereinstimmt. Im Wesentlichen erweitern die Regeln den traditionellen Antidiskriminierungsschutz auf das digitale Zeitalter, indem sie:

  • definieren, wann und wie automatisierte Systeme unter das kalifornische Arbeitsrecht fallen,
  • diskriminierende Auswirkungen von ADS verbieten,
  • Aufbewahrungs- und Benachrichtigungspflichten für Arbeitgeber festlegen, die diese Technologien nutzen.

2. Was ist ein automatisiertes Entscheidungssystem (ADS)?

Die Regulierungen definieren ein ADS als: “Ein computergestützter Prozess, der eine Entscheidung trifft oder die menschliche Entscheidungsfindung bezüglich eines Beschäftigungsvorteils erleichtert.” Dazu gehören Tools, die auf Künstlicher Intelligenz, Maschinenlernen, Algorithmen oder Statistik basieren.

Beispiele für ADS:

  • Lebenslauf-Scanner
  • Automatisierte Interview-Bewertungssysteme, die prognostische Bewertungen über Bewerber oder Mitarbeiter abgeben, Fähigkeiten, Eigenschaften oder Persönlichkeitseigenschaften messen, oder Bewerber kategorisieren und empfehlen.
  • Video-Software, die Stimme oder Gesichtsausdrücke analysiert.
  • Tools, die Kandidaten priorisieren oder einstufen.
  • Systeme, die Stellenanzeigen an bestimmte Gruppen richten.

Ausgeschlossen: Grundlegende Tools wie Textverarbeitungsprogramme, Tabellenkalkulationen und Sicherheitssoftware, solange sie keine Beschäftigungsentscheidungen treffen oder beeinflussen.

3. Wichtige Verbote und Anforderungen

Keine Diskriminierung: Die Regulierungen stellen klar, dass es unrechtmäßig ist, ein automatisiertes Entscheidungssystem oder Auswahlkriterien zu verwenden, die gegen einen Bewerber oder Mitarbeiter oder eine Gruppe von Bewerbern oder Mitarbeitern aufgrund eines geschützten Merkmals diskriminieren.

Besondere HochrisikobereicheÜberprüfung des strafrechtlichen Hintergrunds: Arbeitgeber dürfen ADS nicht verwenden, um vor einer bedingten Einstellung nach der Strafgeschichte zu suchen. Selbst nach einem Angebot müssen sie individuelle Bewertungen durchführen und dürfen sich nicht ausschließlich auf automatisierte Ergebnisse verlassen.

Pflicht zur Bereitstellung von Unterkünften: Wenn ein AI-Tool einen Bewerber mit einer Behinderung oder einem geschützten Merkmal benachteiligen könnte, muss der Arbeitgeber eine angemessene Unterkunft anbieten (z. B. alternative Bewertungsformate).

Dritte Anbieter können Haftung erzeugen: Wenn ein Anbieter oder Personalvermittler ein ADS-Tool in Ihrem Namen verwendet, können Sie dennoch rechtlich verantwortlich sein. Verträge sollten die Verantwortlichkeiten in Bezug auf die Einhaltung von Vorschriften klären und Entschädigungsklauseln enthalten.

4. Dokumentations- und Compliance-Anforderungen

Arbeitgeber, die ADS nutzen, müssen:

  • Relevante Daten, einschließlich der Ergebnisse automatisierter Entscheidungen und demografischer Daten, mindestens vier Jahre lang aufbewahren.
  • Aufzeichnungen getrennt von Personalakten führen.
  • Antibias-Tests für AI-Tools durchführen und dokumentieren.
  • Angemessen auf Testergebnisse reagieren.

5. Nächste Schritte für Arbeitgeber

Wenn die Regulierungen in Kalifornien angenommen werden, sollten Arbeitgeber:

  • Alle verwendeten ADS und AI-Tools überprüfen – Eine Prüfung der Technologien durchführen, die in der Rekrutierung, Einstellung, Beförderung und Disziplin eingesetzt werden.
  • Rechtsberater oder Compliance-Experten einbeziehen – Bewerten, ob die Tools wahrscheinlich diskriminierende Auswirkungen haben oder gegen den FEHA verstoßen.
  • Transparenz von Anbietern anfordern – Informationen zu Bias-Tests, Trainingsdaten und Systemlogik anfordern.
  • Benachrichtigungs- und Unterkunftsrichtlinien implementieren – Bewerber klar informieren, wenn ADS verwendet werden, und wie sie eine Unterkunft anfordern können.
  • Menschliche Aufsicht nutzen – Sich nicht ausschließlich auf AI für Beschäftigungsentscheidungen verlassen. Ein Mensch sollte die endgültigen Entscheidungen überprüfen und genehmigen.

Wenn diese Regulierungen angenommen werden, könnte Kalifornien zusammen mit Jurisdiktionen wie New York City, Illinois und Colorado in die Regulierung von AI am Arbeitsplatz eintreten. Während die Bundesregierung noch ihren Ansatz entwickelt, könnten Staaten wie Kalifornien damit beginnen, zu regulieren, wie AI bei Beschäftigungsentscheidungen eingesetzt werden kann.

Arbeitgeber, die in Kalifornien tätig sind, müssen AI und Automatisierung mit derselben Sorgfalt und Sorgfalt behandeln wie jede andere Beschäftigungspraktik, die den Antidiskriminierungsgesetzen unterliegt.

More Insights

Moratorium auf staatliche KI-Regulierung: Kontroversen und Chancen

Die Moratorium auf staatliche KI-Regulierung stößt sowohl auf Kritik als auch auf Lob innerhalb der Republikanischen Partei. Während einige Gesetzgeber die Notwendigkeit betonen, staatliche Befugnisse...

IBM präsentiert integrierte Software für KI-Sicherheit und Governance

IBM hat neue Softwarefähigkeiten eingeführt, die KI-Sicherheit und -Governance integrieren, und behauptet, dass dies die erste einheitliche Lösung zur Verwaltung von Risiken autonomer KI sei. Die...

KI mit Gewissen: Ethische Herausforderungen und Governance-Strategien

Künstliche Intelligenz (KI) beeinflusst zunehmend kritische Entscheidungsprozesse in verschiedenen Branchen, was robuste ethische Governance-Rahmenbedingungen erforderlich macht. Agentic AI, die zur...

Von Compliance zu Kontrolle: Meisterung von KI und Datensouveränität

Die globale Wirtschaft befindet sich in einer beispiellosen Transformationsphase, die durch den raschen Anstieg von Daten und künstlicher Intelligenz vorangetrieben wird. Laut einer Studie wird die...

Leo XIV: Führungsrolle in der KI-Ethischkeitsdebatte

Papst Leo XIV hat sich als zentrale Figur in den globalen Diskussionen über die Regulierung von KI hervorgetan und betont die Notwendigkeit ethischer Maßnahmen in der Ära der künstlichen Intelligenz...

Staatliche Regulierung von KI: Warum der Kongress nicht eingreifen sollte

Die US-Gesetzgeber stehen kurz davor, drastische Maßnahmen zu ergreifen, die die staatliche Regulierung von KI für 10 Jahre verbieten würden. Ein solches Moratorium könnte die Innovationskraft der USA...

Wild Tech: KI-Governance effizient umsetzen

Wild Tech hat eine neue Plattform eingeführt, die Organisationen dabei helfen soll, die Nutzung von KI zu regulieren und die Datenverwaltung zu verbessern. Die Lösung richtet sich an Unternehmen, die...

Vereinte KI-Sicherheit und Governance für autonome Systeme

IBM hat die erste Software der Branche vorgestellt, die Teams für KI-Sicherheit und -Governance zusammenbringt und einen einheitlichen Überblick über die Risikolage von Unternehmen bietet. Die neuen...