Künstliche Intelligenz am Arbeitsplatz: Chancen und Herausforderungen der Regulierung

AI am Arbeitsplatz – Jobs, Regulierung und die Notwendigkeit bundesweiter Standards

Im ganzen Land bewegen sich die Landesgesetzgeber schnell, um künstliche Intelligenz am Arbeitsplatz zu regulieren. Ein prominentes Beispiel ist der vorgeschlagene SB 947 – das Gesetz über automatisierte Entscheidungssysteme am Arbeitsplatz, das am 2. Februar 2026 in die kalifornische Legislative eingebracht wurde. Dieses Gesetz ist Teil eines breiteren Trends: Gesetze, die regeln, wie Arbeitgeber KI-gesteuerte Tools bei beschäftigungsbezogenen Entscheidungen einsetzen dürfen.

Weitere vorgeschlagene KI-bezogene Gesetze verdeutlichen, wie schnell sich diese Bewegung beschleunigt. Zum Beispiel würde der SB 951 – das kalifornische Gesetz zur technologischen Verdrängung von Arbeitern – Arbeitgeber verpflichten, mindestens 90 Tage im Voraus zu kündigen, bevor Entlassungen aufgrund von „technologischer Verdrängung“ erfolgen. Darüber hinaus hat die kalifornische Arbeitsföderation öffentlich erklärt, dass sie in diesem Jahr mehr als zwei Dutzend Gesetze unterstützen wird, die sich mit den Auswirkungen von künstlicher Intelligenz auf die Arbeitnehmer in Kalifornien befassen.

Obwohl diese Gesetze typischerweise als Maßnahmen zum Schutz der Arbeitnehmer formuliert werden, spiegeln sie eine tiefere und ungelöste politische Spannung wider – ob KI am Arbeitsplatz stückweise auf Landesebene reguliert werden sollte oder ob die Regulierung auf Bundesebene erfolgen muss, um ein Durcheinander von Regeln zu vermeiden, das Innovation, Einführung und wirtschaftliches Wachstum erheblich behindert.

Ein Überblick über SB 947

Der SB 947 zielt darauf ab, die Nutzung von „automatisierten Entscheidungssystemen“ durch Arbeitgeber zu regulieren – ein Begriff, der so weit gefasst ist, dass er KI-gesteuerte Tools, Analysesoftware, Bewertungssysteme und andere Technologien umfasst, die bei Beschäftigungsentscheidungen helfen. Der regulierte Bereich reicht typischerweise über Einstellungen und Entlassungen hinaus und umfasst auch Zeitplanung, Vergütung, Leistungsbewertung, Arbeitszuweisungen und Disziplinarmaßnahmen.

Beispielsweise würde der SB 947 Arbeitgebern verbieten, sich ausschließlich auf ein automatisiertes System für Disziplinar- oder Kündigungsentscheidungen zu verlassen, und sie wären verpflichtet, eine menschliche „unabhängige Untersuchung“ durchzuführen, um jegliche von der KI generierte Ausgabe zu bestätigen. Ähnliche Vorschläge legen Einschränkungen hinsichtlich der verwendbaren Daten fest, verbieten „vorhersehende Verhaltensanalysen“ und untersagen die Nutzung von Systemen, die geschützte Merkmale ableiten könnten.

Diese Gesetze schaffen auch häufig neue Informations- und Offenlegungspflichten. Wenn ein KI-unterstütztes Tool im Zusammenhang mit Disziplin oder Entlassungen verwendet wird, müssen Arbeitgeber möglicherweise schriftliche Benachrichtigungen nach der Nutzung bereitstellen, Anbieter benennen, die Prozesse zur menschlichen Überprüfung erläutern und Dateninputs, -outputs, unterstützende Materialien und Auswirkungen auf Anfrage bereitstellen.

Implikationen und Risiken

Die Durchsetzungsmechanismen sind in der Regel umfassend. Die Einhaltung würde nicht nur von Arbeitsbehörden und Staatsanwälten überwacht, sondern auch durch private Klageverfahren, bei denen Anwaltshonorare und Schadensersatz möglich sind. Das Ergebnis ist nicht nur eine Technologie-Regulierung, sondern ein neues, klagegetriebenes Compliance-Regime, das auf bereits komplexen Arbeitsgesetzen aufbaut.

Ein weiteres zentrales Problem ist die Unsicherheit darüber, was KI für Arbeitsplätze bedeutet. Viele dieser Gesetze gehen jedoch davon aus, dass die Antworten bereits festgelegt sind.

Fünf Gründe gegen die Regulierung auf Landesebene

1. Die staatliche KI-Regulierung ignoriert den wachsenden bundesweiten Konsens über die Notwendigkeit einheitlicher Standards. Auf Bundesebene gibt es zunehmend parteiübergreifende Übereinstimmung über die Notwendigkeit eines nationalen Rahmens, insbesondere für Technologien, die in großem Maßstab eingesetzt werden.

2. Ein Flickenteppich aus Landesgesetzen schützt die Arbeitnehmer nicht – er behindert verantwortungsbewusste KI-Nutzung. Wenn Arbeitgeber von der Nutzung standardisierter, datengestützter Tools aufgrund rechtlicher Risiken abgehalten werden, wird die Entscheidungsfindung nicht verschwinden – sie wird subjektiver.

3. Diese Gesetze gehen davon aus, dass die Auswirkungen von KI auf Jobs bekannt sind – das sind sie nicht. Die staatlichen Bemühungen zur Regulierung von KI gehen häufig davon aus, dass KI hauptsächlich ein Werkzeug zur Jobeliminierung ist.

4. Überregulierung könnte die Nutzung von KI ins Verborgene treiben, anstatt sie transparent zu machen. Wenn der Einsatz von KI-Tools umfangreiche Informationspflichten und rechtliche Risiken auslöst, können Arbeitgeber möglicherweise weiterhin KI nutzen, jedoch auf weniger sichtbare und weniger dokumentierte Weise.

5. Staaten laufen Gefahr, Ausreißer zu werden, während bundesstaatliche KI-Standards wahrscheinlich entstehen werden. Selbst wenn Gesetze wie SB 947 verabschiedet werden, sind sie wahrscheinlich nicht das letzte Wort. Bundesgesetzgebungen, die ausdrücklich konkurrierende Landesgesetze außer Kraft setzen, sind eine realistische Möglichkeit.

Fazit

Der SB 947 ist am besten als Beispiel für einen breiteren legislativen Trend zu verstehen: staatliche Bemühungen, KI am Arbeitsplatz zu regulieren, bevor deren Auswirkungen vollständig verstanden sind. Diese Vorschläge gehen oft von Schäden aus, bevor Beweise vorliegen, und ersetzen verfahrensrechtliche Anforderungen durch substanziellere Ergebnisse.

Um Arbeitgeber dabei zu unterstützen, sich in dieser sich entwickelnden Landschaft zurechtzufinden, wird ein Masterclass-Event angeboten, das sich auf die praktische Nutzung von KI am Arbeitsplatz konzentriert. Die Teilnehmer werden praktische Leitlinien erhalten, wie sie KI verantwortungsbewusst nutzen und Risiken reduzieren können.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...