Bundesstaaten treiben KI-Regulierung voran, während der Kongress stockt
In diesem Monat stimmte der US-Senat dafür, eine umstrittene Bestimmung im umfassenden Steuer- und Ausgabenpaket von Präsident Trump abzulehnen – offiziell das „One Big Beautiful Bill Act“ – die es Staaten und Kommunen für die nächsten zehn Jahre untersagt hätte, KI zu regulieren. Dieses Gesetz hatte eine parteiübergreifende Gegenreaktion ausgelöst und Kritiker argumentieren lassen, dass es den Bundesstaaten die Möglichkeit nehmen würde, Schäden durch algorithmische Diskriminierung, Überwachungsauswüchse und KI-gestützten Betrug zu adressieren.
Die Wiederbelebung staatlicher Maßnahmen kommt inmitten wachsender Frustration über das Fehlen eines einheitlichen föderalen Rahmens für KI. Während die Wirtschaft für präventive nationale Gesetze lobbyiert, um regulatorische Fragmentierung zu vermeiden, sehen viele Bundesstaaten sich als essenzielle Aufseher in Ermangelung zeitnaher Aufsicht durch den Kongress.
Insgesamt haben mehr als 1.000 KI-bezogene Gesetze in allen 50 Bundesstaaten, Puerto Rico, den US-Jungferninseln und Washington, D.C. wieder an Bedeutung gewonnen. Diese Maßnahmen betreffen eine Vielzahl von Themen, darunter biometrischen Datenschutz, algorithmische Transparenz und Beschränkungen für KI-Tools, die in der Personalbeschaffung, der Strafjustiz und der Bildung eingesetzt werden.
Regulierungsansätze der Bundesstaaten
Gesetzgeber in Kalifornien, Colorado, New York und Texas entwickeln Rahmenbedingungen, die Risikobewertungen vorschreiben, menschliche Aufsicht verlangen und KI-Anwendungen verbieten, die als diskriminierend oder unsicher gelten. Die Politik der Trump-Administration neigt dazu, Innovation und Selbstregulierung der Branche über die Einführung föderaler Vorschriften zu bevorzugen. David Sacks, ein Internettechnologie-Investor und Vorsitzender von Trumps Rat für Wissenschaft und Technologie, hat einen Plan für die Regierung in Bezug auf KI vorgelegt, der eng dem entspricht, wofür die KI-Branche lobbyiert.
Die Aufhebung des Moratoriums hat jedoch ein dezentrales Modell der KI-Governance in den USA bekräftigt. Während der Kongress seine nächsten Schritte abwägt, setzen die Bundesstaaten ihre Bemühungen fort und setzen den Ton dafür, wie algorithmische Rechenschaftspflicht und KI-Sicherheit vor Ort behandelt werden.
Herausforderungen und Bedenken
Diese Dezentralisierung hat sowohl Begeisterung als auch Besorgnis ausgelöst. Befürworter argumentieren, dass die Bundesstaaten besser positioniert sind, um Gesetze zu erlassen, die lokale Werte und Bedürfnisse widerspiegeln. Kritiker hingegen befürchten, dass die wachsende Komplexität eines fragmentierten regulatorischen Umfelds schwere Compliance-Burden für Unternehmen, die über Staatsgrenzen hinweg operieren, auferlegen wird. Juristische Experten weisen auf sich überschneidende oder widersprüchliche Anforderungen hin, die Innovationen ersticken und rechtliche Unsicherheiten für Entwickler erhöhen könnten.
In Ermangelung eines nationalen Rahmens führen die staatlichen Gesetzgeber weiterhin die Initiative. Trotz regionaler Unterschiede teilen viele der legislativen Bemühungen gemeinsame Prinzipien. Die meisten betonen Transparenz, Rechenschaftspflicht und Schadenverhütung. Zu den häufigen Bestimmungen gehören verpflichtende Offenlegungen bei der Verwendung von KI in der Personalbeschaffung, Kreditvergabe, Wohnungswesen oder Strafjustiz; Verbote oder Beschränkungen für Hochrisiko-Anwendungen wie Gesichtserkennung; und Anforderungen an menschliche Aufsicht bei automatisierten Entscheidungsprozessen.
Beispiele für staatliche Regelungen
Bundesstaaten wie Kalifornien, Colorado, New York und Utah haben außerdem Risikobewertungen und Protokolle zur Minderung von Vorurteilen in ihre Gesetze integriert. Die Vorschriften Kaliforniens bauen auf dem California Consumer Privacy Act auf und führen Regeln für automatisierte Entscheidungstechnologien ein. Das KI-Gesetz von Colorado verlangt Schutzmaßnahmen für hochriskante KI-Systeme, die den Zugang zu wesentlichen Dienstleistungen beeinflussen. New York verpflichtet nun öffentliche Behörden zur Offenlegung ihrer Nutzung von KI-Tools und fordert regelmäßige Bias-Bewertungen.
In Bundesstaaten wie Kentucky und Maryland zielen die Gesetzgeber auf KI im Gesundheitswesen und den Schutz biometrischer Daten ab. Währenddessen haben Bundesstaaten wie Texas und Montana Schritte unternommen, um den Einsatz von KI im Bereich der öffentlichen Sicherheit und im Kontext der Strafzumessung zu regulieren.
Bundesgesetzgebungsinitiativen
Eine der bedeutendsten Entwicklungen, die in den kommenden Monaten erwartet wird, ist die Rolle des Senatsausschusses für Handel bei der Gestaltung der föderalen KI-Aufsicht. Ein Hauptaugenmerk liegt auf dem Senatsgesetz 1290, dem „Artificial Intelligence and Critical Technology Workforce Framework Act“, das von Senator Gary Peters (D-MI) mit parteiübergreifender Unterstützung eingeführt wurde. Das Gesetz zielt darauf ab, die US-Arbeitskräfte im Bereich KI und anderer kritischer Technologien zu stärken und beauftragt das Nationale Institut für Standards und Technologie (NIST), nationale Arbeitskräfte-Rahmenwerke für KI und kritische Technologien zu entwickeln.
Das NIST wird die Rollen, Fähigkeiten und das Wissen definieren, die für diese Berufe benötigt werden, und auf dem bestehenden NICE-Rahmenwerk für Cybersicherheit aufbauen. Das NICE-Rahmenwerk etabliert ein gemeinsames Vokabular, das die Arbeit und die Arbeiter im Bereich Cybersicherheit beschreibt, unabhängig davon, wo oder für wen die Arbeit ausgeführt wird.
„Da der Sektor der künstlichen Intelligenz weiterhin wächst und eine zunehmend wichtige Rolle in Bereichen wie Gesundheitswesen, Finanzen und Landwirtschaft spielt, ist es entscheidend, dass wir über eine hochqualifizierte Arbeitskräfte verfügen, die bereit ist, Innovationen voranzutreiben und die Vereinigten Staaten an der Spitze dieser Branche zu halten“, sagte Sen. Peters.
Das Gesetz S.1290 wird als Teil eines umfassenderen Versuchs angesehen, nationale Sicherheit, wirtschaftliche Wettbewerbsfähigkeit und Bildungspipelines mit der KI-Governance in Einklang zu bringen. Es hat die Unterstützung des Information Technology Industry Council, der Information Systems Audit and Control Association und von Americans for Responsible Innovation.
Das Gesetz wird voraussichtlich in den kommenden Wochen eine spezielle Anhörung im Senatsausschuss für Handel erhalten, der von dem republikanischen Senator Ted Cruz geleitet wird. Der Ausschuss hat bereits Anhörungen zu KI-Innovation, Wettbewerbsfähigkeit und regulatorischer Straffung durchgeführt.
Schlussfolgerung
Die bevorstehende Anhörung zu S.1290 dürfte mit Diskussionen über das Center for AI Standards and Innovation (CAISI) verbunden sein, das unter der Biden-Administration als AI Safety Institute bekannt wurde. CAISI wurde unter dem Handelsminister von Trump, Howard Lutnick, umbenannt und fungiert nun als „Hauptansprechpartner“ für die Evaluierung von KI-Systemen, die Etablierung freiwilliger Standards und die Verbesserung der Koordination mit Bundesbehörden und privaten Entwicklern.
Wenn S.1290 verabschiedet wird, könnte es nicht nur die Rolle des NIST in der Entwicklung von Arbeitskräften formal legitimieren, sondern auch die Position von CAISI in der nationalen KI-Governance institutionalisieren. CAISI’s wachsender Einfluss, zusammen mit dem Scheitern des Moratoriums, positioniert es als kritischen Knotenpunkt in zukünftigen regulatorischen Bemühungen.
In der Zwischenzeit sind die Bundesstaaten zu de-facto-Laboren für KI-Regulierung geworden. Ihre legislativen Rahmenwerke prägen bereits, wie Unternehmen ihre Technologien gestalten, einsetzen und verwalten. Ob durch verpflichtende algorithmische Audits, Offenlegungsanforderungen oder Verbote von irreführenden Anwendungen – die Bundesstaaten setzen den Ton für die Rechenschaftspflicht in der KI.