Neue KI-Einstellungsregeln und Klagen setzen Arbeitgeber unter Druck
Die Verwendung von Künstlicher Intelligenz (KI) verändert, wie Unternehmen Talente finden, bewerten und einstellen. Gleichzeitig wirft sie jedoch auch Bedenken bei Regulierungsbehörden und Gerichten auf. Zwei bedeutende Entwicklungen im Mai 2025 zeigen, dass HR-Teams ihre Einstellungswerkzeuge genauer unter die Lupe nehmen müssen, um rechtliche und compliance-technische Risiken zu vermeiden.
Was passiert in Kalifornien?
Kalifornien bereitet sich darauf vor, neue Bürgerrechtsvorschriften einzuführen, die die Nutzung automatisierter Entscheidungssysteme (ADS) im Beschäftigungsbereich und in anderen staatlich unterstützten Programmen betreffen werden. Diese Regeln, die voraussichtlich am 1. Juli 2025 in Kraft treten, zielen darauf ab, Diskriminierung basierend auf geschützten Merkmalen wie Rasse, Geschlecht, Alter, Behinderung oder Religion zu verhindern.
Obwohl die Vorschriften den Einsatz von KI-Tools nicht vollständig verbieten, ist es rechtswidrig, Systeme zu verwenden, die zu diskriminierenden Ergebnissen führen.
Was zählt als diskriminierend?
Die neuen Regeln zielen auf KI-Tools ab, die die Stimmen, Gesichtsausdrücke, Persönlichkeiten oder Verfügbarkeiten von Kandidaten analysieren, insbesondere wenn diese Tools zu voreingenommenen Ergebnissen führen.
Beispiel: Ein KI-Tool, das das Nichtlächeln während eines Video-Interviews als Zeichen von Unfreundlichkeit interpretiert, könnte Kandidaten aus Kulturen benachteiligen, in denen weniger Lächeln üblich ist.
Wenn ein KI-Tool unterschiedliche Ergebnisse für Personen in geschützten Gruppen erzielt, könnte es gegen das Gesetz verstoßen, selbst wenn keine Absicht zur Diskriminierung vorliegt.
Was ist mit der Workday-Klage?
Zur gleichen Zeit wird eine bedeutende Sammelklage gegen Workday, einen beliebten Anbieter von HR-Technologien, vor dem Bundesgericht weiterverfolgt. Der Vorwurf? Dass die KI-gestützte Einstellungssoftware diskriminierende Praktiken gegenüber Bewerbern über 40 Jahren angewendet hat.
Die Klage wird von einem über 40-jährigen, schwarzen Mann mit Angstzuständen und Depressionen, Derek Mobley, angeführt. Er behauptet, sich über 100 Stellen beworben zu haben und in jedem Fall abgelehnt worden zu sein.
Am 16. Mai 2025 entschied ein Richter, dass sein Altersdiskriminierungsfall als landesweite Sammelklage unter dem Gesetz über Altersdiskriminierung bei der Beschäftigung (ADEA) fortgeführt werden kann, möglicherweise mit Hunderttausenden oder sogar Millionen von Arbeitssuchenden.
Der Fall ist ein Weckruf für Arbeitgeber: Selbst wenn Sie das KI-Tool nicht selbst entwickelt haben, können Sie dennoch für die diskriminierenden Auswirkungen von Algorithmen Dritter, die in Ihrem Einstellungsprozess verwendet werden, haftbar gemacht werden.
Was sollten HR-Teams jetzt tun?
Unabhängig davon, ob Sie in Kalifornien sind oder nicht, zeigen diese Entwicklungen, dass die Compliance mit KI nun eine Priorität für HR ist. Hier ist Ihr Aktionsplan:
1. Überprüfen Sie Ihre Werkzeuge. Führen Sie eine Prüfung Ihrer Einstellsysteme durch, insbesondere der Systeme, die KI verwenden. Analysieren sie Lebensläufe, screenen sie Video-Interviews oder geben sie „Passform-Noten“? Wenn ja, fordern Sie Nachweise an, dass sie auf Vorurteile getestet wurden.
2. Fordern Sie Transparenz vom Anbieter. Wenn Sie Drittanbieterplattformen wie Workday nutzen, fragen Sie nach:
- Dokumentation der Bias-Tests,
- Klare Erklärungen, wie Entscheidungen getroffen werden, und
- Verträge, die Sie vor rechtlichen Risiken schützen.
3. Halten Sie einen Menschen im Entscheidungsprozess. Lassen Sie nicht zu, dass KI die endgültige Entscheidung trifft. Stellen Sie sicher, dass jemand im HR-Bereich automatisierte Entscheidungen überprüft und diese anpassen kann.
4. Verfolgen Sie die Ergebnisse. Analysieren Sie regelmäßig die Einstellungsdaten. Sehen Sie unerklärliche Unterschiede nach Alter, Rasse oder Geschlecht? Diese könnten Anzeichen eines ungleichen Einflusses sein, ein rechtliches Warnsignal.
5. Bilden Sie ein KI-Governance-Team. Erstellen Sie ein interdisziplinäres Team (HR, Recht, IT), um Richtlinien festzulegen, Systeme zu prüfen und die fortlaufende Nutzung von KI im Beschäftigungsbereich zu überwachen.
Warum es wichtig ist
Die Vorschriften in Kalifornien und die Workday-Klage sind erst der Anfang, selbst wenn Sie nicht in Kalifornien sind. Angesichts der Tatsache, dass die Bundesregierung die Durchsetzung zurückfährt, übernehmen Staaten und private Klagen die Verantwortung. Das bedeutet mehr rechtliche Risiken für Unternehmen, die KI nutzen, insbesondere wenn sie nicht genau hinsehen.
HR ist nicht mehr nur ein Nutzer dieser Tools. Es ist jetzt die erste Verteidigungslinie gegen KI-gesteuerte Vorurteile. KI kann Ihnen helfen, besser und schneller einzustellen, aber nur, wenn sie verantwortungsvoll und fair eingesetzt wird. Nehmen Sie diese Änderungen ernst, gehen Sie der Kurve voraus und stellen Sie sicher, dass Ihr Einstellungsprozess sowohl effizient als auch gerecht ist.