Kaliforniens neue AI-Beschäftigungsregeln: Wichtige Informationen für Arbeitgeber

Kaliforniens neue potenzielle AI-Beschäftigungsregulierungen: Was Arbeitgeber wissen müssen

Kalifornien hat bahnbrechende Regulierungen finalisiert, die direkt die Nutzung von Künstlicher Intelligenz (AI) und automatisierten Entscheidungssystemen (ADS) im Beschäftigungsbereich ansprechen. Diese Regeln, die im März 2025 vom California Civil Rights Council genehmigt wurden, senden eine klare Botschaft: Während AI-Tools in der Rekrutierung, Einstellung und Personalverwaltung wertvoll sein können, dürfen sie nicht diskriminierend gegen Bewerber oder Mitarbeiter eingesetzt werden.

Die Regulierungen sollen später in diesem Jahr in Kraft treten, sobald sie vom Office of Administrative Law genehmigt werden. Hier ist, was Arbeitgeber in Kalifornien wissen müssen.

1. Zweck und Umfang der neuen Regulierungen

Die Regulierungen zielen darauf ab, sicherzustellen, dass die zunehmende Nutzung von Technologie bei Beschäftigungsentscheidungen mit dem Fair Employment and Housing Act (FEHA) übereinstimmt. Im Wesentlichen erweitern die Regeln den traditionellen Antidiskriminierungsschutz auf das digitale Zeitalter, indem sie:

  • definieren, wann und wie automatisierte Systeme unter das kalifornische Arbeitsrecht fallen,
  • diskriminierende Auswirkungen von ADS verbieten,
  • Aufbewahrungs- und Benachrichtigungspflichten für Arbeitgeber festlegen, die diese Technologien nutzen.

2. Was ist ein automatisiertes Entscheidungssystem (ADS)?

Die Regulierungen definieren ein ADS als: “Ein computergestützter Prozess, der eine Entscheidung trifft oder die menschliche Entscheidungsfindung bezüglich eines Beschäftigungsvorteils erleichtert.” Dazu gehören Tools, die auf Künstlicher Intelligenz, Maschinenlernen, Algorithmen oder Statistik basieren.

Beispiele für ADS:

  • Lebenslauf-Scanner
  • Automatisierte Interview-Bewertungssysteme, die prognostische Bewertungen über Bewerber oder Mitarbeiter abgeben, Fähigkeiten, Eigenschaften oder Persönlichkeitseigenschaften messen, oder Bewerber kategorisieren und empfehlen.
  • Video-Software, die Stimme oder Gesichtsausdrücke analysiert.
  • Tools, die Kandidaten priorisieren oder einstufen.
  • Systeme, die Stellenanzeigen an bestimmte Gruppen richten.

Ausgeschlossen: Grundlegende Tools wie Textverarbeitungsprogramme, Tabellenkalkulationen und Sicherheitssoftware, solange sie keine Beschäftigungsentscheidungen treffen oder beeinflussen.

3. Wichtige Verbote und Anforderungen

Keine Diskriminierung: Die Regulierungen stellen klar, dass es unrechtmäßig ist, ein automatisiertes Entscheidungssystem oder Auswahlkriterien zu verwenden, die gegen einen Bewerber oder Mitarbeiter oder eine Gruppe von Bewerbern oder Mitarbeitern aufgrund eines geschützten Merkmals diskriminieren.

Besondere HochrisikobereicheÜberprüfung des strafrechtlichen Hintergrunds: Arbeitgeber dürfen ADS nicht verwenden, um vor einer bedingten Einstellung nach der Strafgeschichte zu suchen. Selbst nach einem Angebot müssen sie individuelle Bewertungen durchführen und dürfen sich nicht ausschließlich auf automatisierte Ergebnisse verlassen.

Pflicht zur Bereitstellung von Unterkünften: Wenn ein AI-Tool einen Bewerber mit einer Behinderung oder einem geschützten Merkmal benachteiligen könnte, muss der Arbeitgeber eine angemessene Unterkunft anbieten (z. B. alternative Bewertungsformate).

Dritte Anbieter können Haftung erzeugen: Wenn ein Anbieter oder Personalvermittler ein ADS-Tool in Ihrem Namen verwendet, können Sie dennoch rechtlich verantwortlich sein. Verträge sollten die Verantwortlichkeiten in Bezug auf die Einhaltung von Vorschriften klären und Entschädigungsklauseln enthalten.

4. Dokumentations- und Compliance-Anforderungen

Arbeitgeber, die ADS nutzen, müssen:

  • Relevante Daten, einschließlich der Ergebnisse automatisierter Entscheidungen und demografischer Daten, mindestens vier Jahre lang aufbewahren.
  • Aufzeichnungen getrennt von Personalakten führen.
  • Antibias-Tests für AI-Tools durchführen und dokumentieren.
  • Angemessen auf Testergebnisse reagieren.

5. Nächste Schritte für Arbeitgeber

Wenn die Regulierungen in Kalifornien angenommen werden, sollten Arbeitgeber:

  • Alle verwendeten ADS und AI-Tools überprüfen – Eine Prüfung der Technologien durchführen, die in der Rekrutierung, Einstellung, Beförderung und Disziplin eingesetzt werden.
  • Rechtsberater oder Compliance-Experten einbeziehen – Bewerten, ob die Tools wahrscheinlich diskriminierende Auswirkungen haben oder gegen den FEHA verstoßen.
  • Transparenz von Anbietern anfordern – Informationen zu Bias-Tests, Trainingsdaten und Systemlogik anfordern.
  • Benachrichtigungs- und Unterkunftsrichtlinien implementieren – Bewerber klar informieren, wenn ADS verwendet werden, und wie sie eine Unterkunft anfordern können.
  • Menschliche Aufsicht nutzen – Sich nicht ausschließlich auf AI für Beschäftigungsentscheidungen verlassen. Ein Mensch sollte die endgültigen Entscheidungen überprüfen und genehmigen.

Wenn diese Regulierungen angenommen werden, könnte Kalifornien zusammen mit Jurisdiktionen wie New York City, Illinois und Colorado in die Regulierung von AI am Arbeitsplatz eintreten. Während die Bundesregierung noch ihren Ansatz entwickelt, könnten Staaten wie Kalifornien damit beginnen, zu regulieren, wie AI bei Beschäftigungsentscheidungen eingesetzt werden kann.

Arbeitgeber, die in Kalifornien tätig sind, müssen AI und Automatisierung mit derselben Sorgfalt und Sorgfalt behandeln wie jede andere Beschäftigungspraktik, die den Antidiskriminierungsgesetzen unterliegt.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...