Bundesstaaten treiben KI-Regulierung voran, während der Kongress stockt

Bundesstaaten treiben KI-Regulierung voran, während der Kongress stockt

In diesem Monat stimmte der US-Senat dafür, eine umstrittene Bestimmung im umfassenden Steuer- und Ausgabenpaket von Präsident Trump abzulehnen – offiziell das „One Big Beautiful Bill Act“ – die es Staaten und Kommunen für die nächsten zehn Jahre untersagt hätte, KI zu regulieren. Dieses Gesetz hatte eine parteiübergreifende Gegenreaktion ausgelöst und Kritiker argumentieren lassen, dass es den Bundesstaaten die Möglichkeit nehmen würde, Schäden durch algorithmische Diskriminierung, Überwachungsauswüchse und KI-gestützten Betrug zu adressieren.

Die Wiederbelebung staatlicher Maßnahmen kommt inmitten wachsender Frustration über das Fehlen eines einheitlichen föderalen Rahmens für KI. Während die Wirtschaft für präventive nationale Gesetze lobbyiert, um regulatorische Fragmentierung zu vermeiden, sehen viele Bundesstaaten sich als essenzielle Aufseher in Ermangelung zeitnaher Aufsicht durch den Kongress.

Insgesamt haben mehr als 1.000 KI-bezogene Gesetze in allen 50 Bundesstaaten, Puerto Rico, den US-Jungferninseln und Washington, D.C. wieder an Bedeutung gewonnen. Diese Maßnahmen betreffen eine Vielzahl von Themen, darunter biometrischen Datenschutz, algorithmische Transparenz und Beschränkungen für KI-Tools, die in der Personalbeschaffung, der Strafjustiz und der Bildung eingesetzt werden.

Regulierungsansätze der Bundesstaaten

Gesetzgeber in Kalifornien, Colorado, New York und Texas entwickeln Rahmenbedingungen, die Risikobewertungen vorschreiben, menschliche Aufsicht verlangen und KI-Anwendungen verbieten, die als diskriminierend oder unsicher gelten. Die Politik der Trump-Administration neigt dazu, Innovation und Selbstregulierung der Branche über die Einführung föderaler Vorschriften zu bevorzugen. David Sacks, ein Internettechnologie-Investor und Vorsitzender von Trumps Rat für Wissenschaft und Technologie, hat einen Plan für die Regierung in Bezug auf KI vorgelegt, der eng dem entspricht, wofür die KI-Branche lobbyiert.

Die Aufhebung des Moratoriums hat jedoch ein dezentrales Modell der KI-Governance in den USA bekräftigt. Während der Kongress seine nächsten Schritte abwägt, setzen die Bundesstaaten ihre Bemühungen fort und setzen den Ton dafür, wie algorithmische Rechenschaftspflicht und KI-Sicherheit vor Ort behandelt werden.

Herausforderungen und Bedenken

Diese Dezentralisierung hat sowohl Begeisterung als auch Besorgnis ausgelöst. Befürworter argumentieren, dass die Bundesstaaten besser positioniert sind, um Gesetze zu erlassen, die lokale Werte und Bedürfnisse widerspiegeln. Kritiker hingegen befürchten, dass die wachsende Komplexität eines fragmentierten regulatorischen Umfelds schwere Compliance-Burden für Unternehmen, die über Staatsgrenzen hinweg operieren, auferlegen wird. Juristische Experten weisen auf sich überschneidende oder widersprüchliche Anforderungen hin, die Innovationen ersticken und rechtliche Unsicherheiten für Entwickler erhöhen könnten.

In Ermangelung eines nationalen Rahmens führen die staatlichen Gesetzgeber weiterhin die Initiative. Trotz regionaler Unterschiede teilen viele der legislativen Bemühungen gemeinsame Prinzipien. Die meisten betonen Transparenz, Rechenschaftspflicht und Schadenverhütung. Zu den häufigen Bestimmungen gehören verpflichtende Offenlegungen bei der Verwendung von KI in der Personalbeschaffung, Kreditvergabe, Wohnungswesen oder Strafjustiz; Verbote oder Beschränkungen für Hochrisiko-Anwendungen wie Gesichtserkennung; und Anforderungen an menschliche Aufsicht bei automatisierten Entscheidungsprozessen.

Beispiele für staatliche Regelungen

Bundesstaaten wie Kalifornien, Colorado, New York und Utah haben außerdem Risikobewertungen und Protokolle zur Minderung von Vorurteilen in ihre Gesetze integriert. Die Vorschriften Kaliforniens bauen auf dem California Consumer Privacy Act auf und führen Regeln für automatisierte Entscheidungstechnologien ein. Das KI-Gesetz von Colorado verlangt Schutzmaßnahmen für hochriskante KI-Systeme, die den Zugang zu wesentlichen Dienstleistungen beeinflussen. New York verpflichtet nun öffentliche Behörden zur Offenlegung ihrer Nutzung von KI-Tools und fordert regelmäßige Bias-Bewertungen.

In Bundesstaaten wie Kentucky und Maryland zielen die Gesetzgeber auf KI im Gesundheitswesen und den Schutz biometrischer Daten ab. Währenddessen haben Bundesstaaten wie Texas und Montana Schritte unternommen, um den Einsatz von KI im Bereich der öffentlichen Sicherheit und im Kontext der Strafzumessung zu regulieren.

Bundesgesetzgebungsinitiativen

Eine der bedeutendsten Entwicklungen, die in den kommenden Monaten erwartet wird, ist die Rolle des Senatsausschusses für Handel bei der Gestaltung der föderalen KI-Aufsicht. Ein Hauptaugenmerk liegt auf dem Senatsgesetz 1290, dem „Artificial Intelligence and Critical Technology Workforce Framework Act“, das von Senator Gary Peters (D-MI) mit parteiübergreifender Unterstützung eingeführt wurde. Das Gesetz zielt darauf ab, die US-Arbeitskräfte im Bereich KI und anderer kritischer Technologien zu stärken und beauftragt das Nationale Institut für Standards und Technologie (NIST), nationale Arbeitskräfte-Rahmenwerke für KI und kritische Technologien zu entwickeln.

Das NIST wird die Rollen, Fähigkeiten und das Wissen definieren, die für diese Berufe benötigt werden, und auf dem bestehenden NICE-Rahmenwerk für Cybersicherheit aufbauen. Das NICE-Rahmenwerk etabliert ein gemeinsames Vokabular, das die Arbeit und die Arbeiter im Bereich Cybersicherheit beschreibt, unabhängig davon, wo oder für wen die Arbeit ausgeführt wird.

„Da der Sektor der künstlichen Intelligenz weiterhin wächst und eine zunehmend wichtige Rolle in Bereichen wie Gesundheitswesen, Finanzen und Landwirtschaft spielt, ist es entscheidend, dass wir über eine hochqualifizierte Arbeitskräfte verfügen, die bereit ist, Innovationen voranzutreiben und die Vereinigten Staaten an der Spitze dieser Branche zu halten“, sagte Sen. Peters.

Das Gesetz S.1290 wird als Teil eines umfassenderen Versuchs angesehen, nationale Sicherheit, wirtschaftliche Wettbewerbsfähigkeit und Bildungspipelines mit der KI-Governance in Einklang zu bringen. Es hat die Unterstützung des Information Technology Industry Council, der Information Systems Audit and Control Association und von Americans for Responsible Innovation.

Das Gesetz wird voraussichtlich in den kommenden Wochen eine spezielle Anhörung im Senatsausschuss für Handel erhalten, der von dem republikanischen Senator Ted Cruz geleitet wird. Der Ausschuss hat bereits Anhörungen zu KI-Innovation, Wettbewerbsfähigkeit und regulatorischer Straffung durchgeführt.

Schlussfolgerung

Die bevorstehende Anhörung zu S.1290 dürfte mit Diskussionen über das Center for AI Standards and Innovation (CAISI) verbunden sein, das unter der Biden-Administration als AI Safety Institute bekannt wurde. CAISI wurde unter dem Handelsminister von Trump, Howard Lutnick, umbenannt und fungiert nun als „Hauptansprechpartner“ für die Evaluierung von KI-Systemen, die Etablierung freiwilliger Standards und die Verbesserung der Koordination mit Bundesbehörden und privaten Entwicklern.

Wenn S.1290 verabschiedet wird, könnte es nicht nur die Rolle des NIST in der Entwicklung von Arbeitskräften formal legitimieren, sondern auch die Position von CAISI in der nationalen KI-Governance institutionalisieren. CAISI’s wachsender Einfluss, zusammen mit dem Scheitern des Moratoriums, positioniert es als kritischen Knotenpunkt in zukünftigen regulatorischen Bemühungen.

In der Zwischenzeit sind die Bundesstaaten zu de-facto-Laboren für KI-Regulierung geworden. Ihre legislativen Rahmenwerke prägen bereits, wie Unternehmen ihre Technologien gestalten, einsetzen und verwalten. Ob durch verpflichtende algorithmische Audits, Offenlegungsanforderungen oder Verbote von irreführenden Anwendungen – die Bundesstaaten setzen den Ton für die Rechenschaftspflicht in der KI.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...