KI im Recruiting: Risiken und Herausforderungen automatisierter Einstellungsverfahren

Wenn Künstliche Intelligenz diskriminiert: Arbeitgeberkonformität im Aufstieg der KI-Einstellung

Jobbewerber machen sich oft Sorgen darüber, was sie daran hindern könnte, eine Stelle zu bekommen. Während Bewerber verstehen können, dass ein Mangel an Qualifikationen oder Erfahrung gegen sie arbeiten kann, sind sie sich möglicherweise nicht so bewusst, dass die von Arbeitgebern verwendeten Rekrutierungs- und Einstellungstools ebenfalls gegen sie wirken könnten. Die Prozesse, die Arbeitgeber nutzen, um Bewerberpools einzugrenzen und letztendlich Kandidaten auszuwählen, werden zunehmend automatisiert; tatsächlich berichtete das Weltwirtschaftsforum 2025, dass etwa 88 % der Unternehmen bereits irgendeine Form von Künstlicher Intelligenz (KI) in der Bewerberauswahl einsetzen.

Künstliche Intelligenz kann ein äußerst nützliches Werkzeug für Arbeitgeber sein, um Einstellungsprozesse zu optimieren und zu personalisieren, doch deren Nutzung ist nicht ohne Risiken. Betrachten wir eine Online-Plattform, die eine Stellenanzeige eines Arbeitgebers mit den Qualifikationen eines Bewerbers abgleicht und Kandidaten basierend auf einer algorithmischen Bewertung priorisiert. Obwohl diese Methoden praktisch erscheinen, sind sie genau die Werkzeuge, die im Fall Mobley gegen Workday, Inc. zur Sprache kommen, in dem behauptet wird, dass diese KI-gestützten Einstellungssysteme rechtswidrig gegen Bewerber diskriminieren.

Die Klage wurde von einem Bewerber eingereicht, der angibt, sich bei zahlreichen Arbeitgebern beworben zu haben, die KI-Einstellungswerkzeuge nutzen, und dabei jedes Mal abgelehnt worden zu sein. Das Unternehmen, das diese Werkzeuge bereitstellt, hat gegen die Ansprüche Widerstand geleistet und behauptet, dass die endgültige Einstellungsentscheidung vom Arbeitgeber und nicht von den Tools getroffen werde. Der Bewerber argumentiert jedoch, dass er manchmal innerhalb von Stunden oder Minuten nach der Bewerbung abgelehnt wurde, was darauf hindeutet, dass es die automatisierten Screening-Tools waren, die die Entscheidung getroffen haben.

Implikationen und Risiken

Der Bewerber, der über 40 Jahre alt und afroamerikanisch ist, behauptet, dass diese „intelligenten“ Werkzeuge ihn aufgrund seiner geschützten Merkmale benachteiligt haben und dass sie auch andere Bewerber negativ beeinflussen. Er beruft sich auf das Gesetz über Altersdiskriminierung im Beschäftigungsbereich, den Titel VII des Bürgerrechtsgesetzes von 1964 und das Gesetz über Amerikaner mit Behinderungen. Das Bundesgericht, das seinen Fall anhört, hat in seiner jüngsten Entscheidung eine vorläufige kollektive Zertifizierung einer Gruppe von Bewerbern gewährt. Diese Bewerber haben bis zu einem bestimmten Datum die Möglichkeit, sich an der Klage zu beteiligen.

Diese Klage stellt eine Warnung vor den Risiken dar, die mit dem Einsatz von KI-Tools in Rekrutierungs- und Einstellungsaufgaben verbunden sind. Klagen, die Diskriminierung durch KI-Tools und die Arbeitgeber, die sie nutzen, betreffen, nehmen seit 2022 zu und zeigen keine Anzeichen einer Abnahme. Selbst die am besten gemeinten Arbeitgeber könnten gefährdet sein, da es schwierig ist, die Konformität der Arbeitgeber in Bezug auf algorithmische Systeme zu bewerten.

Schlussfolgerung

Es ist klar, dass Arbeitgeber ihre Einstellungs- und Rekrutierungsprozesse sorgfältig überprüfen und sicherstellen sollten, dass ihre Mechanismen nicht absichtlich oder unbeabsichtigt gegen Bewerber diskriminieren. Arbeitgeber sollten verstehen, was ein Tool bewertet und wie es auf Vorurteile trainiert und getestet wurde. Sie sollten Werkzeuge verwenden, die Einblick in die Priorisierung eines Kandidaten bieten, und regelmäßig die Funktionalität und Ergebnisse von KI-Einstellungswerkzeugen bewerten, um potenziell diskriminierende Bewertungen zu erkennen. Letztlich sollten alle durch KI unterstützten Prozesse von Menschen überwacht werden, um sicherzustellen, dass die Entscheidungsfindung in den Händen realer Personen bleibt.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...