Regulierung des Einsatzes von KI bei Lohnentscheidungen durch Gesetzgeber

Bundesstaatliche Gesetzgeber streben an, den Einsatz von KI durch Arbeitgeber bei Lohnentscheidungen zu regulieren

Während Arbeitgeber weiterhin neue Wege finden, um Künstliche Intelligenz (KI) zur Unterstützung ihrer Geschäftstätigkeiten zu nutzen, haben die Gesetzgeber der Bundesstaaten dies zur Kenntnis genommen. Insbesondere unterziehen die Gesetzgeber die Verwendung von KI und automatisierten Entscheidungstools zur Festlegung oder Beeinflussung der Arbeitnehmervergütung einer zunehmenden Prüfung. Das erklärte Ziel ist es, potenziell diskriminierende Auswirkungen der algorithmischen Lohnfestlegung einzudämmen und die Transparenz für Arbeitnehmer und Bewerber hinsichtlich des Einsatzes solcher Technologien zu erhöhen.

Aktuelle gesetzgeberische Entwicklungen in den Bundesstaaten

Mehrere Bundesstaaten, darunter Kalifornien, Colorado, Georgia und Illinois, haben im Jahr 2025 Gesetzentwürfe eingeführt, die darauf abzielen, Parameter für KI-gesteuerte Vergütungsentscheidungen festzulegen. Im Januar 2026 setzten die Gesetzgeber in New York und Maryland diesen Trend fort und führten ähnliche Gesetzentwürfe ein.

Obwohl diese vorgeschlagenen Landesgesetze nicht identisch sind, weisen sie gemeinsame Merkmale auf. Zunächst definieren sie „automatisierte Entscheidungssysteme“ ähnlich, um Systeme, Software oder Prozesse einzuschließen – darunter solche, die auf Machine Learning oder KI-Techniken basieren – die dazu verwendet werden, menschliche Entscheidungen zu unterstützen oder zu ersetzen. Im Beschäftigungskontext umfassen diese Definitionen automatisierte Personalmanagement-Tools und Softwaresysteme, die vordefinierte Regeln verwenden, um Daten durch Algorithmen zu verarbeiten und bei der Durchführung von Personalfunktionen zu helfen.

Zusätzlich enthalten die meisten dieser vorgeschlagenen Landesgesetze Leitlinien für Verhaltensweisen, die keine unzulässige Nutzung der algorithmischen Lohnfestlegung darstellen. Zu diesen Ausnahmen gehört beispielsweise, wenn Arbeitgeber (1) individuelle Löhne basierend auf Daten zu den geleisteten Diensten anbieten; (2) in einfacher Sprache ihre Nutzung automatisierter Entscheidungssysteme, einschließlich der von den Systemen berücksichtigten Daten und der Art und Weise, wie diese Daten berücksichtigt werden, an die Arbeitnehmer und Bewerber offenlegen, deren Vergütung durch diese Methoden beeinflusst oder bestimmt wird; und (3) Verfahren entwickeln und umsetzen, um die Genauigkeit der von automatisierten Entscheidungssystemen zur Festlegung von Löhnen berücksichtigten Daten sicherzustellen.

Rechtliche Risiken im Zusammenhang mit KI-gesteuerten Vergütungsentscheidungen

Die Gesetzgeber, die für diese vorgeschlagenen Landesgesetze eintreten, betonen, dass die unregulierte Nutzung von KI durch Arbeitgeber bei Vergütungsentscheidungen zu diskriminierenden Ergebnissen führen kann. Tatsächlich könnten die von Arbeitgebern getroffenen KI-gesteuerten Vergütungsentscheidungen durch eine Vielzahl von Arbeitsgesetzen abgedeckt und rechtlich angreifbar sein, darunter das Bundesgesetz über Bürgerrechte, das Americans with Disabilities Act, das Gesetz über Altersdiskriminierung im Arbeitsleben, das Gesetz über gleiche Bezahlung und/oder geltende staatliche und lokale Gesetze.

Die Natur automatisierter Entscheidungssysteme schafft bereits einzigartige rechtliche Risiken für Arbeitgeber, insbesondere im Kontext der Verwendung dieser Systeme zur Festlegung von Arbeitnehmervergütungen. Eine zentrale Herausforderung, mit der Arbeitgeber konfrontiert sind, wenn sie KI-gesteuerte Tools im Allgemeinen nutzen, ist der Mangel an Transparenz darüber, wie die Tools zu ihren Schlussfolgerungen oder Empfehlungen gelangen. Während menschliche Entscheidungsträger die Beweggründe für Vergütungsentscheidungen erklären können, ist es schwierig – und in einigen Fällen möglicherweise unmöglich – die Beweggründe hinter Entscheidungen, die von bestimmten KI-Tools getroffen werden, zu erkennen. Dies macht Arbeitgeber anfällig für rechtliche Herausforderungen bezüglich der von KI-Tools oder Software getroffenen Vergütungsentscheidungen. Das Ausmaß potenzieller Haftung kann sich verstärken, wenn die Prozesse zur Festlegung oder Beeinflussung der Vergütung einer großen Anzahl von Arbeitnehmern oder Bewerbern verwendet werden.

Handlungsempfehlungen für Arbeitgeber

Arbeitgeber sollten sicherstellen, dass sie die geltenden bundesstaatlichen und staatlichen Gesetze einhalten, die bereits verabschiedet wurden oder voraussichtlich im Jahr 2026 in Kraft treten. Dazu gehört mindestens die Identifizierung jedes KI-Tools, das derzeit in Einstellungsentscheidungen verwendet wird, und die Bewertung, ob diese Tools von irgendeinem staatlichen oder lokalen Gesetz reguliert werden. Arbeitgeber sollten auch eine umfassende KI-Politik entwickeln und umsetzen, die interne Verfahren für die Nutzung von KI umreißt, erforderliche Hinweise an Arbeitnehmer und Bewerber über den Einsatz von KI bereitstellt und menschliche Aufsicht über KI-gesteuerte Empfehlungen vorschreibt.

In Zukunft sollten Arbeitgeber aktiv Entwicklungen in der bundesstaatlichen, staatlichen und lokalen Gesetzgebung sowie den Vorschriften von Behörden beobachten, die darauf abzielen, den Einsatz von KI bei Entscheidungen im Zusammenhang mit Arbeitnehmervergütung und anderen Beschäftigungsbedingungen zu regeln. Da die Bundesstaaten schnell Grenzen für die Rolle von KI in Entscheidungsprozessen am Arbeitsplatz festlegen, werden Arbeitgeber, die proaktiv ihre KI-bezogenen Praktiken prüfen und transparente menschliche Beteiligung an Entscheidungsprozessen, einschließlich Vergütungsentscheidungen, priorisieren, besser positioniert sein, rechtliche Risiken zu minimieren und sich an die sich entwickelnden regulatorischen Anforderungen anzupassen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...