Einführung
Am 9. Januar 2025 kündigte der Generalstaatsanwalt von New Jersey, Matthew J. Platkin, und die New Jersey Division on Civil Rights (DCR) die Einführung einer Initiative für Bürgerrechte und Technologie an. Diese Initiative zielt darauf ab, die Risiken von Diskriminierung und Vorurteilen, die durch den Einsatz von künstlicher Intelligenz (KI) und anderen fortschrittlichen Technologien entstehen, anzugehen. Im Rahmen dieser Initiative veröffentlichte die DCR eine Richtlinie darüber, wie das New Jersey Law Against Discrimination (LAD) auf Diskriminierung anwendbar ist, die aus der Nutzung von KI resultiert.
Algorithmische Diskriminierung
Die Richtlinie erklärt, dass das langjährige LAD von New Jersey auch für algorithmische Diskriminierung gilt. Dies bedeutet, dass Diskriminierung, die durch den Einsatz von KI oder anderen automatisierten Entscheidungsinstrumenten entsteht, in gleicher Weise behandelt wird wie andere diskriminierende Handlungen. Selbst wenn ein Arbeitgeber das KI-Tool nicht entwickelt hat und sich der algorithmischen Diskriminierung nicht bewusst ist, kann er dennoch haftbar gemacht werden.
Ungleichbehandlung und Ungleichgewichtige Auswirkungen
Die Richtlinie gibt mehrere Beispiele für algorithmische Diskriminierung. Sie stellt fest, dass KI-Tools Ungleichbehandlung verursachen können, wenn sie so gestaltet oder verwendet werden, dass Mitglieder einer geschützten Klasse unterschiedlich behandelt werden. Ein Beispiel hierfür wäre, wenn ein Unternehmen KI nur zur Bewertung von Bewerbungen von bestimmten ethnischen Gruppen nutzt.
Darüber hinaus können KI-Tools auch ungleichgewichtige Auswirkungen hervorrufen, wenn ihre scheinbar nicht diskriminierenden Kriterien eine überproportionale negative Wirkung auf Mitglieder einer geschützten Klasse haben. Ein Beispiel wäre ein Unternehmen, das KI zur Bewertung von Vertragsangeboten verwendet, was dazu führen könnte, dass Angebote von frauengeführten Unternehmen überproportional ausgeschlossen werden.
Vernünftige Anpassungen
Die Richtlinie warnt auch, dass der Einsatz von KI-Tools durch einen Arbeitgeber gegen das LAD verstoßen kann, wenn sie die Bereitstellung von vernünftigen Anpassungen verhindern oder behindern. Beispielsweise könnte KI bei der Einstellung Bewerber überproportional ausschließen, die mit einer vernünftigen Anpassung die Anforderungen des Jobs erfüllen könnten.
Haftung
Besonders hervorzuheben ist, dass die Richtlinie eine breite Sichtweise darüber hat, wer für algorithmische Diskriminierung haftbar gemacht werden kann. Arbeitgeber können die Haftung nicht auf ihre KI-Anbieter oder externen Entwickler abwälzen, selbst wenn sie die Funktionsweise des Tools nicht kennen.
Empfohlene Vorgehensweisen
Um das Risiko einer Haftung gemäß dem LAD zu verringern, sollten Arbeitgeber bestimmte Maßnahmen ergreifen, um sicherzustellen, dass die verwendeten KI-Tools keine algorithmischen Vorurteile aufweisen. Diese Schritte umfassen:
- Einrichtung einer KI-Gruppe zur Überwachung der Implementierung der KI-Tools, bestehend aus Mitgliedern verschiedener Abteilungen.
- Implementierung von KI-bezogenen Richtlinien und Verfahren.
- Durchführung von Schulungen zu KI-Tools und algorithmischen Vorurteilen.
- Gründliche Überprüfung von KI-Anbietern und -Tools.
- Sicherstellung geeigneter vertraglicher Bestimmungen von den KI-Anbietern.
- Schnelle Behebung von Problemen, die in Audits oder Tests identifiziert werden.
- Überprüfung von Versicherungspolicen bezüglich Arbeitnehmerpraktiken.
- Gewährleistung eines menschlichen Elements in Entscheidungen, die KI-Tools einbeziehen.
Fazit
Die Einführung der Richtlinie durch die DCR in New Jersey markiert einen wichtigen Schritt in der Regulierung des Einsatzes von KI in der Arbeitswelt. Arbeitgeber sind aufgefordert, wachsam zu sein und sicherzustellen, dass ihre Praktiken nicht nur gesetzeskonform sind, sondern auch ethischen Standards entsprechen, um Diskriminierung zu vermeiden.