Bundesstaaten übernehmen die Führung bei der Regulierung der amerikanischen KI-Entwicklung
Am 4. Juli 2025 unterzeichnete Präsident Trump das Gesetz „One Big Beautiful Bill“, das unerwartet ein 10-jähriges Verbot der Bundesstaaten aufhob, eigene KI-Gesetze zu erlassen oder durchzusetzen. Diese Entscheidung öffnete die Flutgates für die Bundesstaaten, ihre eigenen Regeln aufzustellen, was eine Bewegung in Gang setzte, die im ganzen Land an Fahrt gewinnt.
Die Vielzahl an Gesetzen und potenziellen Gesetzen erschwert es Unternehmen, Schritt zu halten, und führt zu Herausforderungen in Bezug auf Fragmentierung, Duplication und Governance, so Experten.
Fragmentierung der KI-Regulierung
„Eine fragmentierte KI-Regelungslandschaft in den USA wird sich schnell herauskristallisieren“, sagte Daniel Gorlovetsky, CEO von TLVTech. „Bundesstaaten wie Kalifornien, Colorado, Texas und Utah drängen bereits voran.“
Die KI-Gesetzgebung der Bundesstaaten behandelt eine Vielzahl von Themen, von hochriskanten KI-Anwendungen bis hin zu digitalen Repliken, Deepfakes und dem Einsatz von KI im öffentlichen Sektor, erklärte Andrew Pery, Ethik-Experte bei ABBYY.
Beispiele für Bundesstaatliche Gesetze
Das AI-Gesetz von Colorado zielt darauf ab, „hochriskante“ Systeme zu verhindern, die algorithmische Diskriminierung in verschiedenen Sektoren verursachen, mit Strafen von bis zu 20.000 Dollar pro Verstoß. Kalifornien hingegen geht mit zahlreichen KI-Gesetzen voran, die sich auf Daten-Transparenz, Wirkungsanalysen und KI-Sicherheit konzentrieren, insbesondere im Hinblick auf verbraucherorientierte Anwendungen.
Texas konzentriert sich auf KI-generierte Inhalte und Sicherheitsstandards im öffentlichen Dienst, wie zum Beispiel mit HB149, bekannt als das Texas Responsible AI Governance Act. Das Gesetz SB 149 von Utah, das Künstliche Intelligenz Politische Akt heißt, verlangt von Unternehmen, die Nutzung von KI offenzulegen, wenn sie mit Verbrauchern interagieren.
Zusätzlich verhängte Tennessees Gesetz „Ensuring Likeness, Voice, and Image Security (ELVIS) Act“, das 2024 verabschiedet wurde, strenge Beschränkungen für die Nutzung von KI, um die Stimme oder das Bild einer Person ohne Zustimmung zu replizieren und richtet sich gegen unbefugte digitale Reproduktionen.
New York wird voraussichtlich die Führung bei den Vorschriften für den Finanzsektor übernehmen und auf obligatorische Risikodisclosure von großen KI-Entwicklern drängen. Das Gesetz „Responsible AI Safety and Education Act“, das vom Landtag verabschiedet wurde, verpflichtet große KI-Entwickler, weitreichende Schäden zu verhindern.
Auswirkungen der Gesetzgebung auf Unternehmen
Was bedeutet dieses Flickwerk von Gesetzgebungen für Unternehmen? Die Auswirkungen hängen von der Größe und dem KI-Reifegrad ab.
- Kleine Unternehmen müssen bereits vor der Verwendung von KI-Tools im Kundenkontakt über die Einhaltung der Vorschriften nachdenken, erklärte Gorlovetsky, während mittelständische Unternehmen rechtliche und datenschutzrechtliche Strategien von Bundesstaat zu Bundesstaat berücksichtigen sollten.
- Große Unternehmen werden gezwungen sein, die Compliance in ihre Architektur zu integrieren und modulare KI-Implementierungen zu entwickeln, die je nach lokalen Gesetzen Funktionen umschalten können, so Gorlovetsky.
„Die Quintessenz ist, wenn Sie KI in den USA entwickeln oder implementieren, benötigen Sie jetzt einen flexiblen, bundesstaatlich bewussten Compliance-Plan“, sagte Gorlovetsky.
Trotz der Herausforderungen führen die Vorschriften nicht zwangsläufig zu einem Innovationsverlust. Vielmehr können sie genutzt werden, um sicherere und bessere KI zu entwickeln. Unternehmen können sich an die Compliance halten, indem sie Bestände aller Komponenten, die an der Entwicklung, dem Training und der Bereitstellung von KI-Systemen beteiligt sind, führen.
„Wenn die USA im globalen KI-Rennen an der Spitze bleiben wollen, geht es nicht nur darum, intelligente Werkzeuge zu entwickeln“, sagte Murphy. „Es geht darum, zu beweisen, dass wir KI verantwortungsbewusst regulieren können, ohne die Innovation zu bremsen und das Vertrauen in KI zu stärken, ohne Start-ups zu erdrücken oder kleinere Unternehmen zu überfordern.“