AI am Arbeitsplatz – Jobs, Regulierung und die Notwendigkeit bundesweiter Standards
Im ganzen Land bewegen sich die Landesgesetzgeber schnell, um künstliche Intelligenz am Arbeitsplatz zu regulieren. Ein prominentes Beispiel ist der vorgeschlagene SB 947 – das Gesetz über automatisierte Entscheidungssysteme am Arbeitsplatz, das am 2. Februar 2026 in die kalifornische Legislative eingebracht wurde. Dieses Gesetz ist Teil eines breiteren Trends: Gesetze, die regeln, wie Arbeitgeber KI-gesteuerte Tools bei beschäftigungsbezogenen Entscheidungen einsetzen dürfen.
Weitere vorgeschlagene KI-bezogene Gesetze verdeutlichen, wie schnell sich diese Bewegung beschleunigt. Zum Beispiel würde der SB 951 – das kalifornische Gesetz zur technologischen Verdrängung von Arbeitern – Arbeitgeber verpflichten, mindestens 90 Tage im Voraus zu kündigen, bevor Entlassungen aufgrund von „technologischer Verdrängung“ erfolgen. Darüber hinaus hat die kalifornische Arbeitsföderation öffentlich erklärt, dass sie in diesem Jahr mehr als zwei Dutzend Gesetze unterstützen wird, die sich mit den Auswirkungen von künstlicher Intelligenz auf die Arbeitnehmer in Kalifornien befassen.
Obwohl diese Gesetze typischerweise als Maßnahmen zum Schutz der Arbeitnehmer formuliert werden, spiegeln sie eine tiefere und ungelöste politische Spannung wider – ob KI am Arbeitsplatz stückweise auf Landesebene reguliert werden sollte oder ob die Regulierung auf Bundesebene erfolgen muss, um ein Durcheinander von Regeln zu vermeiden, das Innovation, Einführung und wirtschaftliches Wachstum erheblich behindert.
Ein Überblick über SB 947
Der SB 947 zielt darauf ab, die Nutzung von „automatisierten Entscheidungssystemen“ durch Arbeitgeber zu regulieren – ein Begriff, der so weit gefasst ist, dass er KI-gesteuerte Tools, Analysesoftware, Bewertungssysteme und andere Technologien umfasst, die bei Beschäftigungsentscheidungen helfen. Der regulierte Bereich reicht typischerweise über Einstellungen und Entlassungen hinaus und umfasst auch Zeitplanung, Vergütung, Leistungsbewertung, Arbeitszuweisungen und Disziplinarmaßnahmen.
Beispielsweise würde der SB 947 Arbeitgebern verbieten, sich ausschließlich auf ein automatisiertes System für Disziplinar- oder Kündigungsentscheidungen zu verlassen, und sie wären verpflichtet, eine menschliche „unabhängige Untersuchung“ durchzuführen, um jegliche von der KI generierte Ausgabe zu bestätigen. Ähnliche Vorschläge legen Einschränkungen hinsichtlich der verwendbaren Daten fest, verbieten „vorhersehende Verhaltensanalysen“ und untersagen die Nutzung von Systemen, die geschützte Merkmale ableiten könnten.
Diese Gesetze schaffen auch häufig neue Informations- und Offenlegungspflichten. Wenn ein KI-unterstütztes Tool im Zusammenhang mit Disziplin oder Entlassungen verwendet wird, müssen Arbeitgeber möglicherweise schriftliche Benachrichtigungen nach der Nutzung bereitstellen, Anbieter benennen, die Prozesse zur menschlichen Überprüfung erläutern und Dateninputs, -outputs, unterstützende Materialien und Auswirkungen auf Anfrage bereitstellen.
Implikationen und Risiken
Die Durchsetzungsmechanismen sind in der Regel umfassend. Die Einhaltung würde nicht nur von Arbeitsbehörden und Staatsanwälten überwacht, sondern auch durch private Klageverfahren, bei denen Anwaltshonorare und Schadensersatz möglich sind. Das Ergebnis ist nicht nur eine Technologie-Regulierung, sondern ein neues, klagegetriebenes Compliance-Regime, das auf bereits komplexen Arbeitsgesetzen aufbaut.
Ein weiteres zentrales Problem ist die Unsicherheit darüber, was KI für Arbeitsplätze bedeutet. Viele dieser Gesetze gehen jedoch davon aus, dass die Antworten bereits festgelegt sind.
Fünf Gründe gegen die Regulierung auf Landesebene
1. Die staatliche KI-Regulierung ignoriert den wachsenden bundesweiten Konsens über die Notwendigkeit einheitlicher Standards. Auf Bundesebene gibt es zunehmend parteiübergreifende Übereinstimmung über die Notwendigkeit eines nationalen Rahmens, insbesondere für Technologien, die in großem Maßstab eingesetzt werden.
2. Ein Flickenteppich aus Landesgesetzen schützt die Arbeitnehmer nicht – er behindert verantwortungsbewusste KI-Nutzung. Wenn Arbeitgeber von der Nutzung standardisierter, datengestützter Tools aufgrund rechtlicher Risiken abgehalten werden, wird die Entscheidungsfindung nicht verschwinden – sie wird subjektiver.
3. Diese Gesetze gehen davon aus, dass die Auswirkungen von KI auf Jobs bekannt sind – das sind sie nicht. Die staatlichen Bemühungen zur Regulierung von KI gehen häufig davon aus, dass KI hauptsächlich ein Werkzeug zur Jobeliminierung ist.
4. Überregulierung könnte die Nutzung von KI ins Verborgene treiben, anstatt sie transparent zu machen. Wenn der Einsatz von KI-Tools umfangreiche Informationspflichten und rechtliche Risiken auslöst, können Arbeitgeber möglicherweise weiterhin KI nutzen, jedoch auf weniger sichtbare und weniger dokumentierte Weise.
5. Staaten laufen Gefahr, Ausreißer zu werden, während bundesstaatliche KI-Standards wahrscheinlich entstehen werden. Selbst wenn Gesetze wie SB 947 verabschiedet werden, sind sie wahrscheinlich nicht das letzte Wort. Bundesgesetzgebungen, die ausdrücklich konkurrierende Landesgesetze außer Kraft setzen, sind eine realistische Möglichkeit.
Fazit
Der SB 947 ist am besten als Beispiel für einen breiteren legislativen Trend zu verstehen: staatliche Bemühungen, KI am Arbeitsplatz zu regulieren, bevor deren Auswirkungen vollständig verstanden sind. Diese Vorschläge gehen oft von Schäden aus, bevor Beweise vorliegen, und ersetzen verfahrensrechtliche Anforderungen durch substanziellere Ergebnisse.
Um Arbeitgeber dabei zu unterstützen, sich in dieser sich entwickelnden Landschaft zurechtzufinden, wird ein Masterclass-Event angeboten, das sich auf die praktische Nutzung von KI am Arbeitsplatz konzentriert. Die Teilnehmer werden praktische Leitlinien erhalten, wie sie KI verantwortungsbewusst nutzen und Risiken reduzieren können.