Wenn Künstliche Intelligenz diskriminiert: Arbeitgeberkonformität im Aufstieg der KI-Einstellung
Jobbewerber machen sich oft Sorgen darüber, was sie daran hindern könnte, eine Stelle zu bekommen. Während Bewerber verstehen können, dass ein Mangel an Qualifikationen oder Erfahrung gegen sie arbeiten kann, sind sie sich möglicherweise nicht so bewusst, dass die von Arbeitgebern verwendeten Rekrutierungs- und Einstellungstools ebenfalls gegen sie wirken könnten. Die Prozesse, die Arbeitgeber nutzen, um Bewerberpools einzugrenzen und letztendlich Kandidaten auszuwählen, werden zunehmend automatisiert; tatsächlich berichtete das Weltwirtschaftsforum 2025, dass etwa 88 % der Unternehmen bereits irgendeine Form von Künstlicher Intelligenz (KI) in der Bewerberauswahl einsetzen.
Künstliche Intelligenz kann ein äußerst nützliches Werkzeug für Arbeitgeber sein, um Einstellungsprozesse zu optimieren und zu personalisieren, doch deren Nutzung ist nicht ohne Risiken. Betrachten wir eine Online-Plattform, die eine Stellenanzeige eines Arbeitgebers mit den Qualifikationen eines Bewerbers abgleicht und Kandidaten basierend auf einer algorithmischen Bewertung priorisiert. Obwohl diese Methoden praktisch erscheinen, sind sie genau die Werkzeuge, die im Fall Mobley gegen Workday, Inc. zur Sprache kommen, in dem behauptet wird, dass diese KI-gestützten Einstellungssysteme rechtswidrig gegen Bewerber diskriminieren.
Die Klage wurde von einem Bewerber eingereicht, der angibt, sich bei zahlreichen Arbeitgebern beworben zu haben, die KI-Einstellungswerkzeuge nutzen, und dabei jedes Mal abgelehnt worden zu sein. Das Unternehmen, das diese Werkzeuge bereitstellt, hat gegen die Ansprüche Widerstand geleistet und behauptet, dass die endgültige Einstellungsentscheidung vom Arbeitgeber und nicht von den Tools getroffen werde. Der Bewerber argumentiert jedoch, dass er manchmal innerhalb von Stunden oder Minuten nach der Bewerbung abgelehnt wurde, was darauf hindeutet, dass es die automatisierten Screening-Tools waren, die die Entscheidung getroffen haben.
Implikationen und Risiken
Der Bewerber, der über 40 Jahre alt und afroamerikanisch ist, behauptet, dass diese „intelligenten“ Werkzeuge ihn aufgrund seiner geschützten Merkmale benachteiligt haben und dass sie auch andere Bewerber negativ beeinflussen. Er beruft sich auf das Gesetz über Altersdiskriminierung im Beschäftigungsbereich, den Titel VII des Bürgerrechtsgesetzes von 1964 und das Gesetz über Amerikaner mit Behinderungen. Das Bundesgericht, das seinen Fall anhört, hat in seiner jüngsten Entscheidung eine vorläufige kollektive Zertifizierung einer Gruppe von Bewerbern gewährt. Diese Bewerber haben bis zu einem bestimmten Datum die Möglichkeit, sich an der Klage zu beteiligen.
Diese Klage stellt eine Warnung vor den Risiken dar, die mit dem Einsatz von KI-Tools in Rekrutierungs- und Einstellungsaufgaben verbunden sind. Klagen, die Diskriminierung durch KI-Tools und die Arbeitgeber, die sie nutzen, betreffen, nehmen seit 2022 zu und zeigen keine Anzeichen einer Abnahme. Selbst die am besten gemeinten Arbeitgeber könnten gefährdet sein, da es schwierig ist, die Konformität der Arbeitgeber in Bezug auf algorithmische Systeme zu bewerten.
Schlussfolgerung
Es ist klar, dass Arbeitgeber ihre Einstellungs- und Rekrutierungsprozesse sorgfältig überprüfen und sicherstellen sollten, dass ihre Mechanismen nicht absichtlich oder unbeabsichtigt gegen Bewerber diskriminieren. Arbeitgeber sollten verstehen, was ein Tool bewertet und wie es auf Vorurteile trainiert und getestet wurde. Sie sollten Werkzeuge verwenden, die Einblick in die Priorisierung eines Kandidaten bieten, und regelmäßig die Funktionalität und Ergebnisse von KI-Einstellungswerkzeugen bewerten, um potenziell diskriminierende Bewertungen zu erkennen. Letztlich sollten alle durch KI unterstützten Prozesse von Menschen überwacht werden, um sicherzustellen, dass die Entscheidungsfindung in den Händen realer Personen bleibt.