KI-Einsatz im Einstellungsprozess: Leitlinien zur Vermeidung von Diskriminierung

Einführung

Am 9. Januar 2025 kündigte der Generalstaatsanwalt von New Jersey, Matthew J. Platkin, und die New Jersey Division on Civil Rights (DCR) die Einführung einer Initiative für Bürgerrechte und Technologie an. Diese Initiative zielt darauf ab, die Risiken von Diskriminierung und Vorurteilen, die durch den Einsatz von künstlicher Intelligenz (KI) und anderen fortschrittlichen Technologien entstehen, anzugehen. Im Rahmen dieser Initiative veröffentlichte die DCR eine Richtlinie darüber, wie das New Jersey Law Against Discrimination (LAD) auf Diskriminierung anwendbar ist, die aus der Nutzung von KI resultiert.

Algorithmische Diskriminierung

Die Richtlinie erklärt, dass das langjährige LAD von New Jersey auch für algorithmische Diskriminierung gilt. Dies bedeutet, dass Diskriminierung, die durch den Einsatz von KI oder anderen automatisierten Entscheidungsinstrumenten entsteht, in gleicher Weise behandelt wird wie andere diskriminierende Handlungen. Selbst wenn ein Arbeitgeber das KI-Tool nicht entwickelt hat und sich der algorithmischen Diskriminierung nicht bewusst ist, kann er dennoch haftbar gemacht werden.

Ungleichbehandlung und Ungleichgewichtige Auswirkungen

Die Richtlinie gibt mehrere Beispiele für algorithmische Diskriminierung. Sie stellt fest, dass KI-Tools Ungleichbehandlung verursachen können, wenn sie so gestaltet oder verwendet werden, dass Mitglieder einer geschützten Klasse unterschiedlich behandelt werden. Ein Beispiel hierfür wäre, wenn ein Unternehmen KI nur zur Bewertung von Bewerbungen von bestimmten ethnischen Gruppen nutzt.

Darüber hinaus können KI-Tools auch ungleichgewichtige Auswirkungen hervorrufen, wenn ihre scheinbar nicht diskriminierenden Kriterien eine überproportionale negative Wirkung auf Mitglieder einer geschützten Klasse haben. Ein Beispiel wäre ein Unternehmen, das KI zur Bewertung von Vertragsangeboten verwendet, was dazu führen könnte, dass Angebote von frauengeführten Unternehmen überproportional ausgeschlossen werden.

Vernünftige Anpassungen

Die Richtlinie warnt auch, dass der Einsatz von KI-Tools durch einen Arbeitgeber gegen das LAD verstoßen kann, wenn sie die Bereitstellung von vernünftigen Anpassungen verhindern oder behindern. Beispielsweise könnte KI bei der Einstellung Bewerber überproportional ausschließen, die mit einer vernünftigen Anpassung die Anforderungen des Jobs erfüllen könnten.

Haftung

Besonders hervorzuheben ist, dass die Richtlinie eine breite Sichtweise darüber hat, wer für algorithmische Diskriminierung haftbar gemacht werden kann. Arbeitgeber können die Haftung nicht auf ihre KI-Anbieter oder externen Entwickler abwälzen, selbst wenn sie die Funktionsweise des Tools nicht kennen.

Empfohlene Vorgehensweisen

Um das Risiko einer Haftung gemäß dem LAD zu verringern, sollten Arbeitgeber bestimmte Maßnahmen ergreifen, um sicherzustellen, dass die verwendeten KI-Tools keine algorithmischen Vorurteile aufweisen. Diese Schritte umfassen:

  1. Einrichtung einer KI-Gruppe zur Überwachung der Implementierung der KI-Tools, bestehend aus Mitgliedern verschiedener Abteilungen.
  2. Implementierung von KI-bezogenen Richtlinien und Verfahren.
  3. Durchführung von Schulungen zu KI-Tools und algorithmischen Vorurteilen.
  4. Gründliche Überprüfung von KI-Anbietern und -Tools.
  5. Sicherstellung geeigneter vertraglicher Bestimmungen von den KI-Anbietern.
  6. Schnelle Behebung von Problemen, die in Audits oder Tests identifiziert werden.
  7. Überprüfung von Versicherungspolicen bezüglich Arbeitnehmerpraktiken.
  8. Gewährleistung eines menschlichen Elements in Entscheidungen, die KI-Tools einbeziehen.

Fazit

Die Einführung der Richtlinie durch die DCR in New Jersey markiert einen wichtigen Schritt in der Regulierung des Einsatzes von KI in der Arbeitswelt. Arbeitgeber sind aufgefordert, wachsam zu sein und sicherzustellen, dass ihre Praktiken nicht nur gesetzeskonform sind, sondern auch ethischen Standards entsprechen, um Diskriminierung zu vermeiden.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...