Neue AI-Regulierungen für Beschäftigung in Kalifornien

Navigieren durch die neuen und aufkommenden KI-Beschäftigungsregulierungen in Kalifornien

Der California Civil Rights Council und die California Privacy Protection Agency haben kürzlich Regulierungen verabschiedet, die Anforderungen an Arbeitgeber stellen, die „automatisierte Entscheidungssysteme“ oder „automatisierte Entscheidungstechnologien“ in Beschäftigungsentscheidungen oder bestimmten HR-Prozessen verwenden. Auf der legislativen Seite hat die California Legislature das Gesetz SB 7 verabschiedet, das zusätzliche Verpflichtungen für Arbeitgeber einführt, die diese Technologien nutzen; das Gesetz liegt derzeit auf dem Schreibtisch des Gouverneurs. Der Gouverneur hat SB 53 unterzeichnet, das bestimmten Whistleblower-Rechten für Mitarbeiter in Bezug auf die Sicherheit von KI gewährt. Unten diskutieren wir einige der wichtigsten Anforderungen in den neuen Regulierungen und Gesetzen.

Regulierungen des California Civil Rights Council – ADS-Regulierungen

Die Regulierungen für automatisierte Entscheidungssysteme (ADS) des California Civil Rights Council traten am 1. Oktober 2025 in Kraft. Diese Regulierungen zielen darauf ab, potenzielle Diskriminierung zu adressieren, wenn Unternehmen KI-Tools zur Entscheidungsfindung im Personalbereich einsetzen. Sie gelten für Arbeitgeber mit fünf oder mehr Mitarbeitern in Kalifornien. Bemerkenswerte Bestimmungen umfassen:

  • Abgedeckte Technologien: Die CCRC-Regulierungen definieren „Automatisierte Entscheidungssysteme“ (ADS) als „einen computergestützten Prozess, der eine Entscheidung trifft oder die menschliche Entscheidungsfindung in Bezug auf einen Beschäftigungsvorteil erleichtert.“ ADS können künstliche Intelligenz, maschinelles Lernen, Algorithmen, Statistiken oder andere Datenverarbeitungstechniken verwenden.
  • Beschäftigungsdiskriminierung: Es ist illegal, ADS zu verwenden, die zu Diskriminierung gegen einen Bewerber oder Mitarbeiter aufgrund einer geschützten Klasse führen (z.B. Rasse, Nationalität, Geschlecht, Alter, Religion, Behinderung). Arbeitgeber können haftbar gemacht werden, selbst wenn sie nicht die Absicht hatten zu diskriminieren, wenn die Verwendung des ADS eine unterschiedliche Auswirkung auf eine geschützte Klasse hat.
  • Anti-Bias-Tests: Die Regulierungen sehen vor, dass Anti-Bias-Tests oder ähnliche proaktive Maßnahmen zur Vermeidung von Diskriminierung zur Verteidigung von Diskriminierungsansprüchen genutzt werden können.
  • Aufbewahrung von Aufzeichnungen: Arbeitgeber müssen ADS-bezogene Aufzeichnungen, einschließlich Auswahlkriterien, relevante Ausgaben und Prüfungsbefunde, vier Jahre lang aufbewahren.

Regulierungen der California Privacy Protection Agency – ADMT-Regulierungen

Die California Privacy Protection Agency hat kürzlich Regulierungen genehmigt, die den Einsatz von automatisierten Entscheidungstechnologien (ADMT) in „signifikanten Entscheidungen“ über Verbraucher, einschließlich Mitarbeiter, betreffen. Unternehmen müssen bis zum 1. Januar 2027 compliance sein, auch für ADMT, die bereits vor diesem Datum verwendet werden. Wichtige Bestimmungen umfassen:

  • Abgedeckte Technologien: ADMT wird definiert als „jede Technologie, die persönliche Informationen verarbeitet und Berechnungen verwendet, um menschliche Entscheidungen zu ersetzen oder erheblich zu ersetzen.“
  • Signifikante Entscheidungen: Eine „signifikante Entscheidung“ umfasst Beschäftigungs- oder unabhängige Vertragsmöglichkeiten wie Einstellung, Arbeitsverteilung, Vergütung, Beförderung, Herabstufung, Suspendierung oder Entlassung.
  • Vorabbenachrichtigung: Ein Unternehmen, das ADMT verwendet, um eine signifikante Entscheidung zu treffen, muss Verbrauchern eine Vorabbenachrichtigung geben, die die Verwendung von ADMT und die Rechte der Verbraucher beschreibt.
  • Opt-out: Verbraucher müssen die Möglichkeit erhalten, dem Einsatz von ADMT zu widersprechen, um eine signifikante Entscheidung zu treffen.
  • Zugriff: Unternehmen müssen Verbrauchern Informationen über die Verwendung von ADMT bereitstellen, wenn sie auf eine Anfrage zur Einsichtnahme reagieren.
  • Risikoanalysen: Unternehmen müssen eine Risikoanalyse durchführen, bevor sie ADMT zur Entscheidungsfindung verwenden.

Gesetzgebung

Die California Legislature hat kürzlich das Gesetz SB 7, das „No Robo Bosses Act“, verabschiedet, das Benachrichtigung, menschliche Aufsicht und Bestätigung erfordert, wenn Arbeitgeber automatisierte Entscheidungssysteme für Entscheidungen verwenden, die die Lebensgrundlagen der Arbeitnehmer betreffen. Gouverneur Newsom hat bis zum 12. Oktober Zeit, das Gesetz zu unterzeichnen oder abzulehnen.

In der Zwischenzeit hat der Gouverneur das Gesetz SB 53 unterzeichnet, das am 1. Januar 2026 in Kraft tritt und unter anderem Whistleblower-Schutz für Mitarbeiter großer KI-Unternehmen einführt, wenn die Aktivitäten des Unternehmens eine spezifische und wesentliche Gefahr für die öffentliche Gesundheit oder Sicherheit darstellen.

Nächste Schritte

Arbeitgeber sollten sich auf die relevanten Regulierungen und neuen Gesetze vorbereiten, indem sie die Technologien verstehen, die ihre HR- und anderen Abteilungen verwenden oder verwenden möchten, die diese gesetzlichen Anforderungen auslösen könnten. Arbeitgeber sollten Richtlinien und Verfahren entwickeln, um sicherzustellen, dass sie die relevanten Anforderungen beim Einsatz von KI im Beschäftigungskontext einhalten.

More Insights

Zukunft der KI: Kooperation statt Wettbewerb

In der heutigen schnelllebigen Welt verändert die Technologie, insbesondere die künstliche Intelligenz (KI), unsere Gesellschaft grundlegend und stellt unsere Ethik in Frage. Anstatt den Fortschritt...

Pakistans nationale KI-Politik: Ein ehrgeiziger Plan für Innovation und Arbeitsplatzschaffung

Pakistan hat eine ehrgeizige nationale KI-Politik eingeführt, die darauf abzielt, innerhalb von fünf Jahren einen Binnenmarkt für KI im Wert von 2,7 Milliarden USD aufzubauen. Die Politik umfasst...

Ethik im KI-Management: Ein Leitfaden für Unternehmen

Dieser Leitfaden erläutert, warum ethische Governance ein entscheidender Faktor für skalierbare KI ist und was Unternehmen tun können, um langfristige Resilienz zu gewährleisten. Er bietet umsetzbare...

Umfassende KI-Strategien für die Hochschulbildung

Künstliche Intelligenz revolutioniert das Lernen, Lehren und die Abläufe im Hochschulbereich, indem sie personalisierte Lernbegleiter bietet und die institutionelle Resilienz stärkt. Hochschulen...

KI-Governance: Verantwortungsvoll mit globalen Standards ausrichten

Künstliche Intelligenz (KI) prägt zunehmend die Finanzdienstleistungen, die Landwirtschaft, die Bildung und sogar die Regierungsführung in Afrika. Ghana hat im Mai 2025 seine erste nationale...

Die bevorstehende KI-Krise

Die wirtschaftliche Transformation durch KI hat begonnen, wobei Unternehmen wie IBM und Salesforce Mitarbeiter durch KI-Chatbots ersetzt haben. Arbeitnehmer befürchten massenhafte Entlassungen durch...

Ethik der digitalen Arbeit: Verantwortung für die KI-Arbeitskraft

Die digitale Arbeit wird im Arbeitsplatz immer häufiger, jedoch gibt es nur wenige allgemein akzeptierte Regeln für ihre Governance. Die größte Herausforderung für Führungskräfte besteht darin, die...

Anthropic bringt Petri-Tool zur Automatisierung von KI-Sicherheitsaudits

Anthropic hat Petri, ein Open-Source-Tool zur automatisierten Prüfung der Sicherheit von KI, vorgestellt, das große Sprachmodelle (LLMs) auf riskantes Verhalten testet. Das Tool nutzt autonome...

EU KI-Gesetz und DSGVO: Konflikt oder Einklang?

Künstliche Intelligenz ist das allgegenwärtige Schlagwort in der Rechtsbranche, und der EU AI Act steht im Fokus vieler Juristen. In diesem Artikel werden die bedeutendsten Wechselwirkungen zwischen...