Neue KI-Einstellungsregeln und Klagen: Warnhinweise für Arbeitgeber

Neue KI-Einstellungsregeln und Klagen setzen Arbeitgeber unter Druck

Die Verwendung von Künstlicher Intelligenz (KI) verändert, wie Unternehmen Talente finden, bewerten und einstellen. Gleichzeitig wirft sie jedoch auch Bedenken bei Regulierungsbehörden und Gerichten auf. Zwei bedeutende Entwicklungen im Mai 2025 zeigen, dass HR-Teams ihre Einstellungswerkzeuge genauer unter die Lupe nehmen müssen, um rechtliche und compliance-technische Risiken zu vermeiden.

Was passiert in Kalifornien?

Kalifornien bereitet sich darauf vor, neue Bürgerrechtsvorschriften einzuführen, die die Nutzung automatisierter Entscheidungssysteme (ADS) im Beschäftigungsbereich und in anderen staatlich unterstützten Programmen betreffen werden. Diese Regeln, die voraussichtlich am 1. Juli 2025 in Kraft treten, zielen darauf ab, Diskriminierung basierend auf geschützten Merkmalen wie Rasse, Geschlecht, Alter, Behinderung oder Religion zu verhindern.

Obwohl die Vorschriften den Einsatz von KI-Tools nicht vollständig verbieten, ist es rechtswidrig, Systeme zu verwenden, die zu diskriminierenden Ergebnissen führen.

Was zählt als diskriminierend?

Die neuen Regeln zielen auf KI-Tools ab, die die Stimmen, Gesichtsausdrücke, Persönlichkeiten oder Verfügbarkeiten von Kandidaten analysieren, insbesondere wenn diese Tools zu voreingenommenen Ergebnissen führen.

Beispiel: Ein KI-Tool, das das Nichtlächeln während eines Video-Interviews als Zeichen von Unfreundlichkeit interpretiert, könnte Kandidaten aus Kulturen benachteiligen, in denen weniger Lächeln üblich ist.

Wenn ein KI-Tool unterschiedliche Ergebnisse für Personen in geschützten Gruppen erzielt, könnte es gegen das Gesetz verstoßen, selbst wenn keine Absicht zur Diskriminierung vorliegt.

Was ist mit der Workday-Klage?

Zur gleichen Zeit wird eine bedeutende Sammelklage gegen Workday, einen beliebten Anbieter von HR-Technologien, vor dem Bundesgericht weiterverfolgt. Der Vorwurf? Dass die KI-gestützte Einstellungssoftware diskriminierende Praktiken gegenüber Bewerbern über 40 Jahren angewendet hat.

Die Klage wird von einem über 40-jährigen, schwarzen Mann mit Angstzuständen und Depressionen, Derek Mobley, angeführt. Er behauptet, sich über 100 Stellen beworben zu haben und in jedem Fall abgelehnt worden zu sein.

Am 16. Mai 2025 entschied ein Richter, dass sein Altersdiskriminierungsfall als landesweite Sammelklage unter dem Gesetz über Altersdiskriminierung bei der Beschäftigung (ADEA) fortgeführt werden kann, möglicherweise mit Hunderttausenden oder sogar Millionen von Arbeitssuchenden.

Der Fall ist ein Weckruf für Arbeitgeber: Selbst wenn Sie das KI-Tool nicht selbst entwickelt haben, können Sie dennoch für die diskriminierenden Auswirkungen von Algorithmen Dritter, die in Ihrem Einstellungsprozess verwendet werden, haftbar gemacht werden.

Was sollten HR-Teams jetzt tun?

Unabhängig davon, ob Sie in Kalifornien sind oder nicht, zeigen diese Entwicklungen, dass die Compliance mit KI nun eine Priorität für HR ist. Hier ist Ihr Aktionsplan:

1. Überprüfen Sie Ihre Werkzeuge. Führen Sie eine Prüfung Ihrer Einstellsysteme durch, insbesondere der Systeme, die KI verwenden. Analysieren sie Lebensläufe, screenen sie Video-Interviews oder geben sie „Passform-Noten“? Wenn ja, fordern Sie Nachweise an, dass sie auf Vorurteile getestet wurden.

2. Fordern Sie Transparenz vom Anbieter. Wenn Sie Drittanbieterplattformen wie Workday nutzen, fragen Sie nach:

  • Dokumentation der Bias-Tests,
  • Klare Erklärungen, wie Entscheidungen getroffen werden, und
  • Verträge, die Sie vor rechtlichen Risiken schützen.

3. Halten Sie einen Menschen im Entscheidungsprozess. Lassen Sie nicht zu, dass KI die endgültige Entscheidung trifft. Stellen Sie sicher, dass jemand im HR-Bereich automatisierte Entscheidungen überprüft und diese anpassen kann.

4. Verfolgen Sie die Ergebnisse. Analysieren Sie regelmäßig die Einstellungsdaten. Sehen Sie unerklärliche Unterschiede nach Alter, Rasse oder Geschlecht? Diese könnten Anzeichen eines ungleichen Einflusses sein, ein rechtliches Warnsignal.

5. Bilden Sie ein KI-Governance-Team. Erstellen Sie ein interdisziplinäres Team (HR, Recht, IT), um Richtlinien festzulegen, Systeme zu prüfen und die fortlaufende Nutzung von KI im Beschäftigungsbereich zu überwachen.

Warum es wichtig ist

Die Vorschriften in Kalifornien und die Workday-Klage sind erst der Anfang, selbst wenn Sie nicht in Kalifornien sind. Angesichts der Tatsache, dass die Bundesregierung die Durchsetzung zurückfährt, übernehmen Staaten und private Klagen die Verantwortung. Das bedeutet mehr rechtliche Risiken für Unternehmen, die KI nutzen, insbesondere wenn sie nicht genau hinsehen.

HR ist nicht mehr nur ein Nutzer dieser Tools. Es ist jetzt die erste Verteidigungslinie gegen KI-gesteuerte Vorurteile. KI kann Ihnen helfen, besser und schneller einzustellen, aber nur, wenn sie verantwortungsvoll und fair eingesetzt wird. Nehmen Sie diese Änderungen ernst, gehen Sie der Kurve voraus und stellen Sie sicher, dass Ihr Einstellungsprozess sowohl effizient als auch gerecht ist.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...