Künstliche Intelligenz und Einstellung im Jahr 2026: Risiken der Diskriminierung managen
Für große Arbeitgeber und Technologieunternehmen, die Einstellungsplattformen bereitstellen, hat sich das Risikoprofil rund um die KI-unterstützte Einstellung von einer zukünftigen Sorge zu einem aktuellen Problem gewandelt. Der Kernpunkt ist einfach: Die Verwendung eines Algorithmus verringert nicht die Pflichten zur Vermeidung von Diskriminierung; sie erhöht oft den Bedarf an Validierung, Überwachung, Dokumentation und Aufsicht über Anbieter.
Rechtslage und bestehende Gesetze
Bundesstaaten und sogar Kommunen haben von allgemeinen Aussagen zu gezielten Anforderungen übergegangen (z. B. Audits, Benachrichtigungen, Aufzeichnungen und Pflichten für „hochriskante“ Systeme), was für große, multistaatliche Arbeitgeber von Bedeutung ist. Bestehende bundesstaatliche und bundesweite Antidiskriminierungsgesetze sind nach wie vor in Kraft und gelten für KI-gestützte Einstellungsentscheidungen.
Die am genauesten beobachtete private Klage in diesem Bereich – Mobley gegen Workday – verdeutlicht die Richtung der Haftung: Klageführer richten sich nicht nur gegen Arbeitgeber, sondern auch gegen Anbieter und Plattformen, die die Einstellungsergebnisse erheblich beeinflussen.
Die rechtlichen Grundlagen
Selbst ohne ein umfassendes bundesweites „KI-Einstellungsrecht“ schafft der bestehende rechtliche Rahmen bereits signifikante Risiken:
- Diskriminierungsgesetze: Arbeitgeber, die Software, Algorithmen oder KI als Auswahlverfahren nutzen, können mit Haftung wegen unterschiedlicher Auswirkungen konfrontiert werden, wenn die Ergebnisse geschützte Gruppen überproportional ausschließen.
- Americans with Disabilities Act (ADA): Algorithmische Tools können Risiken im Sinne des Bundesrechts in mindestens drei wiederkehrenden Arten schaffen: (1) Ausschluss von Personen aufgrund von behindertenbedingten Eigenschaften; (2) Verwendung von Tools, die effektiv behindertenbezogene Anfragen oder medizinische Untersuchungen vor dem Angebot durchführen; und (3) Versäumnis, angemessene Anpassungen in einem KI-gesteuerten Prozess bereitzustellen.
Relevante Klagen und Haftung
Die Klage Mobley gegen Workday gilt als richtungsweisend, da sie testet, ob ein HR-Technologieanbieter als „Agent“ betrachtet werden kann, der Einstellungsfunktionen für Arbeitgeber ausführt und daher unter bundesstaatlichen Antidiskriminierungsgesetzen haftbar gemacht werden kann.
Wichtige Aspekte für Unternehmensjuristen: Die Delegation von Funktionen kann potenzielle Haftung schaffen. Je mehr sich ein Unternehmen operativ auf ein System verlässt, um Kandidaten mit minimaler menschlicher Intervention abzulehnen oder zu bewerten, desto einfacher wird es für Kläger, zu argumentieren, dass das Tool effektiv eine Einstellungsfunktion ausführt.
Gesetzliche Rahmenbedingungen auf staatlicher Ebene
- New York City: Das lokale Gesetz 144 untersagt die Nutzung von automatisierten Einstellungsentscheidungswerkzeugen (AEDT), sofern diese nicht innerhalb des letzten Jahres einem Bias-Audit unterzogen wurden und die Ergebnisse öffentlich verfügbar gemacht werden.
- Kalifornien: Die Regularien für „automatisierte Entscheidungssysteme“ zielen darauf ab, Diskriminierungsrisiken zu klären, ohne ein neues Antidiskriminierungssystem zu schaffen.
- Illinois: Hier gibt es unterschiedliche Regelungen, die sicherstellen, dass die HR-Technologie inventarisiert wird.
- Colorado: Ein neues Gesetz verpflichtet Entwickler und Anbieter von „hochriskanten“ KI-Systemen, angemessene Sorgfalt walten zu lassen, um Verbraucher vor bekannten oder voraussehbaren Risiken algorithmischer Diskriminierung zu schützen.
Praktische Compliance-Programme für große Arbeitgeber im Jahr 2026
Für Unternehmensjuristen ist das Ziel nicht, die Fairness von KI im Allgemeinen zu beweisen, sondern ein verteidigbares System zu schaffen, das die Wahrscheinlichkeit diskriminierender Ergebnisse verringert. Beginnen Sie mit einem Inventar, das alle Tools dokumentiert, die Kandidaten bewerten, klassifizieren oder empfehlen.
Bauen Sie einen wiederholbaren Test- und Überwachungszyklus auf. Behandeln Sie die Analyse negativer Auswirkungen als wiederkehrende Kontrolle. Planen Sie angemessene Anpassungen im Workflow ein und nicht als nachträglichen Gedanken.
Verteilen Sie Risiken angemessen in den Verträgen mit Anbietern und stellen Sie sicher, dass Sie einen litigation-ready Rekord führen. Die Frage im Jahr 2026 ist, ob Sie Governance über automatisierte Auswahlverfahren demonstrieren können, die mit ihrem Einfluss auf die Einstellungsergebnisse übereinstimmt.