Bundesstaaten übernehmen die Regulierung der KI-Entwicklung in den USA

Bundesstaaten übernehmen die Führung bei der Regulierung der amerikanischen KI-Entwicklung

Am 4. Juli 2025 unterzeichnete Präsident Trump das Gesetz „One Big Beautiful Bill“, das unerwartet ein 10-jähriges Verbot der Bundesstaaten aufhob, eigene KI-Gesetze zu erlassen oder durchzusetzen. Diese Entscheidung öffnete die Flutgates für die Bundesstaaten, ihre eigenen Regeln aufzustellen, was eine Bewegung in Gang setzte, die im ganzen Land an Fahrt gewinnt.

Die Vielzahl an Gesetzen und potenziellen Gesetzen erschwert es Unternehmen, Schritt zu halten, und führt zu Herausforderungen in Bezug auf Fragmentierung, Duplication und Governance, so Experten.

Fragmentierung der KI-Regulierung

„Eine fragmentierte KI-Regelungslandschaft in den USA wird sich schnell herauskristallisieren“, sagte Daniel Gorlovetsky, CEO von TLVTech. „Bundesstaaten wie Kalifornien, Colorado, Texas und Utah drängen bereits voran.“

Die KI-Gesetzgebung der Bundesstaaten behandelt eine Vielzahl von Themen, von hochriskanten KI-Anwendungen bis hin zu digitalen Repliken, Deepfakes und dem Einsatz von KI im öffentlichen Sektor, erklärte Andrew Pery, Ethik-Experte bei ABBYY.

Beispiele für Bundesstaatliche Gesetze

Das AI-Gesetz von Colorado zielt darauf ab, „hochriskante“ Systeme zu verhindern, die algorithmische Diskriminierung in verschiedenen Sektoren verursachen, mit Strafen von bis zu 20.000 Dollar pro Verstoß. Kalifornien hingegen geht mit zahlreichen KI-Gesetzen voran, die sich auf Daten-Transparenz, Wirkungsanalysen und KI-Sicherheit konzentrieren, insbesondere im Hinblick auf verbraucherorientierte Anwendungen.

Texas konzentriert sich auf KI-generierte Inhalte und Sicherheitsstandards im öffentlichen Dienst, wie zum Beispiel mit HB149, bekannt als das Texas Responsible AI Governance Act. Das Gesetz SB 149 von Utah, das Künstliche Intelligenz Politische Akt heißt, verlangt von Unternehmen, die Nutzung von KI offenzulegen, wenn sie mit Verbrauchern interagieren.

Zusätzlich verhängte Tennessees Gesetz „Ensuring Likeness, Voice, and Image Security (ELVIS) Act“, das 2024 verabschiedet wurde, strenge Beschränkungen für die Nutzung von KI, um die Stimme oder das Bild einer Person ohne Zustimmung zu replizieren und richtet sich gegen unbefugte digitale Reproduktionen.

New York wird voraussichtlich die Führung bei den Vorschriften für den Finanzsektor übernehmen und auf obligatorische Risikodisclosure von großen KI-Entwicklern drängen. Das Gesetz „Responsible AI Safety and Education Act“, das vom Landtag verabschiedet wurde, verpflichtet große KI-Entwickler, weitreichende Schäden zu verhindern.

Auswirkungen der Gesetzgebung auf Unternehmen

Was bedeutet dieses Flickwerk von Gesetzgebungen für Unternehmen? Die Auswirkungen hängen von der Größe und dem KI-Reifegrad ab.

  • Kleine Unternehmen müssen bereits vor der Verwendung von KI-Tools im Kundenkontakt über die Einhaltung der Vorschriften nachdenken, erklärte Gorlovetsky, während mittelständische Unternehmen rechtliche und datenschutzrechtliche Strategien von Bundesstaat zu Bundesstaat berücksichtigen sollten.
  • Große Unternehmen werden gezwungen sein, die Compliance in ihre Architektur zu integrieren und modulare KI-Implementierungen zu entwickeln, die je nach lokalen Gesetzen Funktionen umschalten können, so Gorlovetsky.

„Die Quintessenz ist, wenn Sie KI in den USA entwickeln oder implementieren, benötigen Sie jetzt einen flexiblen, bundesstaatlich bewussten Compliance-Plan“, sagte Gorlovetsky.

Trotz der Herausforderungen führen die Vorschriften nicht zwangsläufig zu einem Innovationsverlust. Vielmehr können sie genutzt werden, um sicherere und bessere KI zu entwickeln. Unternehmen können sich an die Compliance halten, indem sie Bestände aller Komponenten, die an der Entwicklung, dem Training und der Bereitstellung von KI-Systemen beteiligt sind, führen.

„Wenn die USA im globalen KI-Rennen an der Spitze bleiben wollen, geht es nicht nur darum, intelligente Werkzeuge zu entwickeln“, sagte Murphy. „Es geht darum, zu beweisen, dass wir KI verantwortungsbewusst regulieren können, ohne die Innovation zu bremsen und das Vertrauen in KI zu stärken, ohne Start-ups zu erdrücken oder kleinere Unternehmen zu überfordern.“

More Insights

So klassifizieren Sie Ihr KI-System unter dem EU KI-Gesetz in Minuten

Der EU AI Act wird die Art und Weise verändern, wie KI in Europa entwickelt, bewertet und bereitgestellt wird. Der EU AI Act Risk Classification Wizard hilft Teams dabei, schnell die Risikokategorie...

KI-Rechtsangleichung im Fokus der AIPPI 2025

Die AIPPI wird vom 13. bis 16. September 2025 in Yokohama, Japan, mit mehr als 2.700 Teilnehmern stattfinden, wobei der Schwerpunkt auf der Harmonisierung von KI-Rechtsvorschriften liegt...

KI-gestützte Überwachung: Sicherheit und Privatsphäre im Gleichgewicht

KI-gestützte Überwachung verspricht in einigen Kontexten echte operationale Vorteile, erfordert jedoch eine sorgfältige Governance, um legitime Sicherheitsgewinne zu bewahren, ohne die Bürgerrechte zu...

Verantwortliche KI im Finanzwesen: Von der Theorie zur Praxis

Die globale Diskussion über künstliche Intelligenz hat eine neue Phase erreicht, in der der Fokus darauf liegt, wie diese Werkzeuge verantwortungsvoll genutzt werden können, insbesondere im...

Zertifizierung für vertrauenswürdige KI und eine nachhaltige Zukunft

Zertifizierungen können Vertrauen in KI-Systeme schaffen, indem sie Standards für Zuverlässigkeit und Erklärbarkeit festlegen, was das Vertrauen der Nutzer stärkt. Regulierung wird zu einem...

Vertrauen in erklärbare KI: Ein Blick auf die Unsichtbaren

Erklärbare KI (XAI) ist entscheidend für den Aufbau von Vertrauen, Gewährleistung von Transparenz und Ermöglichung von Verantwortung in sensiblen Bereichen wie Gesundheitswesen und Finanzen. Die EU...

Verantwortungsvolle KI-Workflows für UX-Forschung

Dieser Artikel untersucht, wie KI verantwortungsvoll in den Arbeitsabläufen der UX-Forschung integriert werden kann, um Geschwindigkeit und Effizienz zu steigern, während gleichzeitig die menschliche...