Regulierung von Künstlicher Intelligenz in den USA: Ein fragmentierter Ansatz

AI-Regulierung in den Vereinigten Staaten: Bundesrahmen und Landesgesetze

Der rechtliche Rahmen für künstliche Intelligenz in den Vereinigten Staaten basiert nicht auf einem einzelnen Bundesgesetz, das mit einem „AI-Code“ vergleichbar ist. Stattdessen ist er um bundesstaatliche Leitlinien durch Exekutivbefehle und eine Reihe von Landesgesetzen organisiert, die direkt anwendbare Verpflichtungen schaffen.

Resultat: eine fragmentierte Landschaft, in der die Einhaltung stark vom Bundesstaat, dem Anwendungsfall (Einstellung, essentielle Dienstleistungen, generative Inhalte usw.) und der Rolle des Betreibers (Entwickler, Bereitsteller, Anbieter) abhängt.

I. Der amerikanische Rahmen: Zwei Ebenen, kein „U.S. AI Act“

Die Regulierung der künstlichen Intelligenz in den Vereinigten Staaten ist in die institutionelle Architektur des Landes eingebettet, die auf einer Verteilung der Befugnisse zwischen dem Bundes- und den Landesebenen basiert.

In diesem Kontext ist der amerikanische Rahmen gekennzeichnet durch:

  • eine zweistufige Governance-Struktur, die bundesstaatliche Strategie und von den Bundesstaaten (und manchmal lokalen Behörden) verabschiedete Gesetzgebung kombiniert.
  • das Fehlen eines umfassenden Bundesgesetzes, das mit dem europäischen AI Act vergleichbar ist.
  • bundesstaatliche Leitlinien, die größtenteils durch Exekutivbefehle strukturiert sind, die nationale Prioritäten festlegen und die Maßnahmen der Bundesbehörden leiten.
  • Landesgesetze, die rechtlich bindende Verpflichtungen für Unternehmen auferlegen können, durch Generalstaatsanwälte oder lokale Behörden durchgesetzt werden.
  • Prioritätsbereiche: Bekämpfung von Diskriminierung, Transparenz, Verbraucherschutz und Regulierung von generierten Inhalten.

Innerhalb dieses Rahmens betont der amerikanische Ansatz im Allgemeinen die Aufrechterhaltung der technologischen Führerschaft und Innovation.

Exekutivbefehle: Der Bundesmotor

Ein Exekutivbefehl ist ein normativer Akt, der vom Präsidenten der Vereinigten Staaten im Rahmen seiner verfassungsmäßigen und/oder gesetzlichen Befugnisse erlassen wird. Er ist rechtlich bindend für die Bundesbehörden und -verwaltungen, leitet deren Prioritäten und kann den privaten Sektor durch öffentliche Beschaffung, regulatorische Leitlinien oder Bundesstandards beeinflussen. Er stellt jedoch kein Gesetz dar, das vom Kongress verabschiedet wurde, und schafft grundsätzlich keinen direkt anwendbaren Compliance-Code für alle Unternehmen.

In Ermangelung eines umfassenden Bundesgesetzes zur KI entwickeln und verabschieden die Bundesstaaten ihre eigenen Regeln für KI-Systeme. Dies führt zu einer fragmentierten regulatorischen Landschaft, in der die Verpflichtungen je nach Rechtsordnung und Anwendungsfall variieren.

Zu den strukturierten Beispielen gehören:

  • Colorado: risikobasierter Ansatz zur Bekämpfung algorithmischer Diskriminierung (in Kraft: 2026)
  • Kalifornien: Transparenzpflichten für generative KI und Regulierung von Deepfakes (in Kraft: 2026)
  • Texas: Verbote bestimmter Nutzungen, gezielte Verpflichtungen und zivilrechtliche Sanktionen (in Kraft: 2026)
  • New York City: Regulierung automatisierter Entscheidungshilfen bei der Rekrutierung (in Kraft seit 2023)
  • Utah: Verbraucherschutz und Minderjährigenschutz im Umgang mit KI-Systemen (in Kraft seit 2024)

II. Bundesebene: Exekutive Strategie und „AI Action Plan“

1. Bundesstaatliche Governance strukturiert durch die Exekutive

Auf Bundesebene wird die KI-Politik hauptsächlich durch Exekutivbefehle, strategische Rahmenbedingungen (Aktionspläne, nationale Prioritäten) und die Ausführung durch Behörden (Umsetzung, öffentliche Beschaffung, Infrastruktur, internationale Positionierung) implementiert.

„Winning the Race: America’s AI Action Plan“

Nach dem Exekutivbefehl „Removing Barriers to American Leadership in Artificial Intelligence“ (EO 14179, 23. Januar 2025) veröffentlichte das Weiße Haus den strategischen Plan „Winning the Race: America’s AI Action Plan“ (Juli 2025).

Dieses Dokument schafft kein einzelnes Bundesgesetz, sondern dient als Blaupause für die Maßnahmen der Verwaltung (Prioritäten, Finanzierung, öffentliche Beschaffung, Infrastruktur, Diplomatie).

Der Plan ist um drei Säulen strukturiert:

  • Beschleunigung der KI-Innovation
  • Aufbau einer amerikanischen KI-Infrastruktur
  • Führung in internationaler KI-Diplomatie und Sicherheit

2. Schlüssel-Exekutivbefehle im Zusammenhang mit der bundesstaatlichen KI-Strategie

Hier sind die strukturierten Texte und ihre Hauptrolle innerhalb der Strategie:

  • Maintain U.S. Leadership in Artificial Intelligence (2019): leitet die American AI Initiative ein und legt die föderalen Prioritäten fest (Forschung, Talent, regulatorisches Rahmenwerk).
  • Removing Barriers to American Leadership in Artificial Intelligence (EO 14179, Jan. 2025): verankert eine bundesstaatliche „pro-Innovation“-Orientierung, die die Beseitigung wahrgenommener Hindernisse für die Wettbewerbsfähigkeit von KI fordert.
  • President’s Council of Advisors on Science and Technology (EO 14177, Jan. 2025): stärkt die wissenschaftliche und technologische Beratungsstruktur auf Präsidialebene.
  • Advancing Artificial Intelligence Education for American Youth (Apr. 2025): zielt darauf ab, KI-Ausbildung und -Fähigkeiten im Bildungssystem zu entwickeln.
  • Accelerating Federal Permitting of Data Center Infrastructure (EO 14318, Juli 2025): beschleunigt bestimmte bundesstaatliche Genehmigungsprozesse für Datenzentren, die mit KI in Verbindung stehen.
  • Promoting the Export of the American AI Technology Stack (EO 14320, Juli 2025): strukturiert einen koordinierten bundesstaatlichen Ansatz zur Unterstützung des Exports amerikanischer KI-Technologien.
  • Preventing Woke AI in the Federal Government (EO 14319, Juli 2025): legt Anforderungen/Erwartungen für von der Bundesregierung verwendete KI-Systeme fest und könnte die öffentliche Beschaffung beeinflussen.
  • Ensuring a National Policy Framework for Artificial Intelligence (EO 14365, Dez. 2025): bekräftigt einen nationalen „minimalen Belastungsrahmen“ und zielt darauf ab, die Fragmentierung zu reduzieren, insbesondere durch die Beseitigung von Hindernissen, die durch bestimmte staatliche Ansätze entstehen.

3. Sicherstellung eines nationalen Politikrahmens für künstliche Intelligenz

Der jüngste Exekutivbefehl „Ensuring a National Policy Framework for Artificial Intelligence“ (Dezember 2025) markiert einen wichtigen Schritt in der Entwicklung der bundesstaatlichen KI-Governance in den Vereinigten Staaten.

Der Text bekräftigt die Absicht, die Kohärenz des nationalen regulatorischen Rahmens zu stärken und die Fragmentierung zu begrenzen, die durch die Vielzahl der gesetzlichen Initiativen auf staatlicher Ebene entsteht.

Zu diesem Zweck sieht der Exekutivbefehl unter anderem die Schaffung einer Taskforce im Justizministerium vor, die Analyse von staatlichen Gesetzen und Initiativen im Zusammenhang mit KI sowie die Identifizierung möglicher Konflikte mit bundesstaatlichen Prioritäten in Innovation und technologischer Wettbewerbsfähigkeit.

Die KI-Gesetzgebung Colorados wird in diesem Zusammenhang als Beispiel für eine Regulierung angeführt, die solche Bedenken hervorrufen könnte. Ein Bericht des Justizministeriums wird in den kommenden Monaten erwartet und könnte Aufschluss über zukünftige bundesstaatliche Richtungen geben.

4. Der TRUMP AMERICA AI Act: Ein Versuch zur bundesstaatlichen Harmonisierung

In diesem Kontext wurde ein Bundesgesetz mit dem Titel TRUMP AMERICA AI Act (The Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act) eingebracht, um einen minimalen Satz von bundesstaatlichen Anforderungen für KI-Systeme festzulegen.

Der Text sieht unter anderem vor:

  • die Schaffung einer Sorgfaltspflicht für Entwickler von KI-Systemen bei der Gestaltung und dem Betrieb ihrer Plattformen
  • Risikomanagementprotokolle für fortgeschrittene KI-Modelle (Frontier-Modelle)
  • Transparenz- und Berichtspflichten für hochgradig wirkende Modelle
  • die Schaffung eines Federal AI Safety Institute (FAISI) innerhalb des National Institute of Standards and Technology (NIST)
  • Mechanismen zur Regelung der Haftung von Entwicklern und Betreibern von KI-Systemen

Das Gesetz behandelt auch Themen wie die Verwendung von Daten für das Modelltraining, die Sicherheit fortschrittlicher Systeme, die Auswirkungen von KI auf die Beschäftigung und den Schutz von Minderjährigen in digitalen Umgebungen. Derzeit sind die legislativen Entwicklungen in Bezug auf diesen Text jedoch eher begrenzt, und der Zeitrahmen für die Verabschiedung bleibt ungewiss.

III. Pionierstaaten, die bindende KI-Vorschriften verabschiedet haben

In Ermangelung eines einheitlichen Bundesgesetzes haben mehrere Rechtsordnungen Texte verabschiedet, die anwendbar sind (oder bald anwendbar sein werden) und konkrete Verpflichtungen (Audits, Transparenz, Sorgfaltspflichten, Verbote, Sanktionen) festlegen.

Gleichzeitig ist das amerikanische regulatorische Ökosystem auch durch zahlreiche „Mikrogesetze“ gekennzeichnet, sehr kurze und gezielte gesetzgeberische Texte, die sich an spezifische Akteure oder Nutzungen von KI richten.

1. Texas – TRAIGA (Texas Responsible Artificial Intelligence Governance Act)

Ziel: Schaffung eines KI-Governance-Rahmenwerks in Texas, insbesondere durch das Verbot bestimmter hochriskanter Praktiken und die Schaffung eines Kontroll- und Sanktionsregimes.

Anwendungsbereich: Der Text gilt für Organisationen, deren KI-Systeme in Verbindung mit Texas entwickelt, bereitgestellt oder betrieben werden (insbesondere wenn Personen mit Wohnsitz in Texas betroffen sind).

Hauptverpflichtungen und -verbote:

  • Gezielte Verbote:
    • Verhaltensmanipulation, die Selbstverletzung, Gewalt oder kriminelle Aktivitäten fördert
    • Bestimmte Formen der rechtswidrigen Diskriminierung
    • Soziale Bewertung durch staatliche Stellen
    • Beschränkungen bestimmter biometrischer Nutzungen durch die Regierung ohne Zustimmung (mit Ausnahmen)
    • Verbote von Zielen, die darauf abzielen, verfassungsmäßige Rechte zu verletzen
    • Verbote von Systemen, die darauf ausgelegt sind, bestimmte illegale Inhalte zu produzieren oder zu verbreiten (einschließlich illegaler sexueller Deepfakes usw.)
  • Weitere Mechanismen:
    • Regulatorischer Sandbox: überwachte Testmechanismen (unter Beibehaltung wesentlicher Verbote)
    • Safe Harbor: wesentliche Einhaltung anerkannter Rahmenwerke (z.B. NIST AI RMF) kann in bestimmten Durchsetzungszusammenhängen Unterstützung bieten.
  • Sanktionen und Durchsetzung:
    • Behörde: Generalstaatsanwalt von Texas (ermächtigt zur Untersuchung und Online-Berichterstattung)
    • Compliance-Zeitrahmen: Benachrichtigung und Heilungslogik (Korrekturzeitraum) im Text vorgesehen
    • Zivilstrafen: Bereiche für nicht behobene und „unheilbare“ Verstöße sowie tägliche Strafen für fortdauernde Verstöße (mit möglichen einstweiligen Verfügungen)

2. Colorado – SB 24-205 (Verbraucherschutz im Umgang mit KI-Systemen)

Ziel: Verhinderung algorithmischer Diskriminierung in hochriskanten KI-Systemen, die für „folgenreiche“ Entscheidungen (Beschäftigung, Wohnraum, Kredit, Gesundheit, öffentliche Dienstleistungen usw.) verwendet werden.

Anwendungsbereich:

  • Gilt für Entwickler hochriskanter KI-Systeme
  • Für Arbeitgeber, die solche Systeme im Bundesstaat Colorado verwenden
  • Für KI-Systeme, die Colorado-Bewohner betreffen

Der Text stellt eine klare Unterscheidung zwischen:

  • Entwickler (Einheit, die das System entwirft oder bereitstellt)
  • Bereitsteller (Einheit, die es in einem operationellen Kontext verwendet)

Das Gesetz richtet sich hauptsächlich an prädiktive KI-Systeme, die Entscheidungen treffen oder wesentlich zu Entscheidungen beitragen. Es richtet sich nicht hauptsächlich an generative KI-Tools für den allgemeinen Gebrauch.

Hauptverpflichtungen:

  • Allgemeine Sorgfaltspflicht: Entwickler und Bereitsteller müssen angemessene Sorgfalt walten lassen, um algorithmische Diskriminierung im Zusammenhang mit der Nutzung hochriskanter Systeme zu verhindern.
  • Entwickler: Dokumentation und Informationen, die dem Bereitsteller das Risikomanagement ermöglichen; Transparenz über Grenzen/Nutzungen; Benachrichtigung im Falle von entdeckter Diskriminierung.
  • Bereitsteller: Risikomanagementrichtlinie, Auswirkungen bewerten, Informationen an Einzelpersonen bereitstellen, wenn KI in einer folgeneichen Entscheidung verwendet wird (je nach Fall) und wenn erforderlich, Überprüfungsmechanismen/Humanüberwachung.
  • Interaktionstransparenz: Verpflichtung zur Information, wenn ein Verbraucher mit einem KI-System interagiert, es sei denn, es ist offensichtlich.

Sanktionen und Durchsetzung:

  • Durchsetzungsbehörde liegt ausschließlich bei der Generalstaatsanwaltschaft von Colorado.
  • Es gibt kein individuelles Klagerecht für Einzelpersonen.
  • Verstöße werden als unlautere oder täuschende Handelspraktiken im Rahmen des Colorado Consumer Protection Act eingestuft.
  • Zivilstrafen von bis zu 20.000 $ pro Verstoß können verhängt werden.

3. Kalifornien – Transparenz für generative KI (AB-2013 und SB-942)

Kalifornien hat zwei wichtige Texte zur Transparenz in der generativen KI verabschiedet, die beide am 1. Januar 2026 in Kraft treten.

A) AB-2013 – Transparenz der Trainingsdaten (TDTA)

Ziel: Stärkung der Transparenz bezüglich der Trainingsdaten von generativen KI-Systemen, die in Kalifornien zugänglich sind.

Anwendungsbereich:

  • Gilt für Entwickler generativer KI-Systeme und Anbieter, die generative KI-Systeme oder -Dienste anbieten, die in Kalifornien zugänglich sind.
  • Richtet sich an Systeme, die in der Lage sind, synthetische Inhalte wie Text, Bilder, Audio oder Video zu generieren.
  • Systeme, die ausschließlich für interne Zwecke verwendet werden und nicht öffentlich zugänglich sind, sind ausgeschlossen.

Hauptverpflichtung:

  • Veröffentlichung einer hochrangigen Zusammenfassung der verwendeten Datensätze für das Training (einschließlich Quellen, Herkunft, Art und Umfang der Daten sowie wesentliche Feinabstimmungen oder Aktualisierungen), mit Aktualisierungen bei wesentlichen Änderungen.

Sanktionen und Durchsetzung:

  • Durchsetzung über staatliche Behörden, mit möglichen zivilrechtlichen Konsequenzen im Rahmen des kalifornischen Rechtsrahmens.

B) SB-942 – Kalifornisches KI-Transparenzgesetz

Ziel: Erhöhung der Transparenz hinsichtlich KI-generierter Medien (Audio, Bild, Video) und Verringerung der Verbreitung von Deepfakes durch technische und vertragliche Anforderungen.

Anwendungsbereich:

  • Gilt für „Covered Providers“, d.h. Einheiten, die:
    • Ein generatives KI-System erstellen oder produzieren
    • Mehr als 1.000.000 monatliche Nutzer haben
    • Das System öffentlich in Kalifornien zugänglich machen

Der Text betrifft nur von KI erzeugte Bild-, Audio- und Video-Inhalte. Textinhalte sind nicht abgedeckt.

Von den Anforderungen ausgenommen sind Videospiele, Filme, audiovisuelle Werke oder interaktive Erlebnisse, die nicht auf nutzergenerierten KI-Inhalten basieren.

Hauptverpflichtungen:

  • Ein kostenlos zur Verfügung gestelltes Erkennungswerkzeug
  • Latente Offenlegungen (eingebettete Metadaten) und die Möglichkeit sichtbarer Offenlegungen
  • Vertragliche Verpflichtungen, wenn das System an Dritte lizenziert wird (Aufrechterhaltung der Offenlegungskapazitäten und Widerrufsmechanismen, wenn geändert).

Sanktionen und Durchsetzung:

  • Zivilstrafe: 5.000 $ pro Verstoß (jeder Tag kann einen weiteren Verstoß darstellen).
  • Durchsetzung durch den Generalstaatsanwalt und bestimmte lokale Behörden.

4. New York City – Lokales Gesetz 144 (Automatisierte Einstellungsentscheidungsinstrumente)

Im Gegensatz zu Landesgesetzen ist das lokale Gesetz 144 eine kommunale Regulierung, die von der Stadt New York verabschiedet wurde und sich auf einen spezifischen Anwendungsfall konzentriert: Beschäftigung.

Ziel: Verringerung des Diskriminierungsrisikos bei Einstellungs- und Beförderungsentscheidungen, wenn automatisierte Tools verwendet werden, durch unabhängige Audits und Transparenz gegenüber den Kandidaten.

Definition: Ein automatisiertes Einstellungsentscheidungsinstrument (AEDT) ist ein rechnergestütztes Werkzeug, das auf maschinellem Lernen, statistischen Modellen, Datenanalysen oder künstlicher Intelligenz basiert und ein vereinfachtes Ergebnis bereitstellt (z.B. einen Score, eine Klassifikation oder eine Empfehlung), das als ausschlaggebender oder bestimmender Faktor in einer Einstellungs- oder Beförderungsentscheidung verwendet wird oder die menschliche Entscheidungsfindung ersetzt.

Nicht als AEDTs gelten:

  • Spam-Filter, Firewalls, Antivirensoftware
  • Rechner, Tabellenkalkulationen, Datenbanken
  • Datensätze oder Datenkompilationen ohne automatisierte Entscheidungsfunktionen

Hauptverpflichtungen:

  • Unabhängiges Bias-Audit vor der Nutzung und regelmäßig (jährlich in der Praxis)
  • Benachrichtigung der Kandidaten über die Verwendung eines AEDT und wesentliche Bewertungselemente
  • Veröffentlichung von Informationen über das letzte Audit (Datum und Zusammenfassung)

Sanktionen und Durchsetzung:

  • Behörde: NYC Department of Consumer and Worker Protection (DCWP)
  • Geldstrafen: 500 $ (erster Verstoß), dann 1.500 $ (nachfolgende Verstöße)
  • Kein individuelles Klagerecht: Durchsetzung durch die lokale Behörde.

IV. Fazit: Ein „Bundes- und Flickenteppich“-Rahmen, der einen strukturierten Compliance-Ansatz erfordert

Die Regulierung von KI in den Vereinigten Staaten beruht auf einem Gleichgewicht:

Auf der einen Seite eine bundesstaatliche Strategie, die hauptsächlich von der Exekutive vorangetrieben wird und nationale Prioritäten für Innovation, Infrastruktur und Wettbewerbsfähigkeit festlegt.

Auf der anderen Seite schaffen staatliche und lokale Gesetze konkrete rechtliche Verpflichtungen hinsichtlich Audits, Transparenz, Risikomanagement, gezielten Verboten und Sanktionen.

Für Organisationen besteht die Herausforderung nicht nur darin, die Regeln zu „kennen“, sondern auch die KI-Nutzungen zu kartieren, relevante Rechtsordnungen zu identifizieren und überprüfbare Governance (Dokumentation, Prozesse, Kontrollen, Überwachung) umzusetzen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...