Bundesstaaten setzen neue KI-Gesetze trotz Opposition auf Bundesebene in Kraft
Die Innovation im Bereich der künstlichen Intelligenz (KI) hat sich mit atemberaubender Geschwindigkeit von experimentell zu operationell entwickelt. Unternehmen setzen generative und agentische KI-Tools in Marketingkampagnen ein, nutzen maschinelles Lernen zur Preisgestaltung, bedienen sich von Chatbots zur Kundeninteraktion und integrieren KI in Beschäftigung, Gesundheitswesen und kreative Arbeitsabläufe.
Mit den wachsenden Fragen, wie KI-Modelle erstellt, trainiert, eingesetzt und den Verbrauchern offengelegt werden, operieren Unternehmen, die KI-Tools entwickeln oder verwenden, in einem unsicheren regulatorischen Umfeld. Es gibt kein umfassendes Bundesgesetz, das KI regelt, sodass die Landesgesetzgeber ihren eigenen Weg finden müssen, während die klare Präferenz der vorherigen Bundesadministration für eine lockere Regulierung im Raum steht.
Bundesgesetzgebung zur KI
Auf Bundesebene befasst sich das einzige bedeutende Gesetz zur KI mit einem sehr spezifischen Schaden: nicht einvernehmlichen intimen Bildern, einschließlich KI-generierter Bilder oder Videos, die als „Deepfakes“ bekannt sind. Dieses Gesetz kriminalisiert die nicht einvernehmliche Veröffentlichung intimer Bilder und fordert Plattformen auf, entsprechende Inhalte innerhalb von 48 Stunden nach Benachrichtigung zu entfernen.
Das Gesetz erhielt überwältigende Unterstützung im Kongress, was kein anderes Bundesgesetz zur KI erreicht hat. Ein anderes Gesetz, das fast dieselbe Unterstützung erhielt, war der Versuch, ein 10-jähriges Moratorium für Bundesstaaten zu erlassen, um KI-bezogene Gesetze zu erlassen, welches letzten Sommer gescheitert ist.
Bundesstaaten füllen die Lücke
In Ermangelung umfassender bundesstaatlicher Regelungen füllen die Bundesstaaten die Gesetzgebungslücke. Im letzten Jahr haben drei Bundesstaaten ihre eigenen umfassenden KI-Gesetze erlassen. Diese Gesetze versuchen, die Entwicklung und den Einsatz von KI im Allgemeinen zu regeln, anstatt sich auf ein enges Thema zu konzentrieren.
Ein Beispiel ist das Colorado AI Act, welches ein Rahmenwerk zum Schutz der Verbraucher vor „algorithmischer Diskriminierung“ durch „hochriskante“ KI-Systeme bietet. Dieses Gesetz war das erste seiner Art im Land und sollte am 1. Februar in Kraft treten, wurde jedoch auf den 30. Juni verschoben, um dem Gesetzgeber Zeit zu geben, Bedenken hinsichtlich des Umfangs des Gesetzes zu prüfen.
Regulatorische Trends
Unter den bisher erlassenen KI-Gesetzen der Bundesstaaten sind einige gemeinsame regulatorische Trends zu erkennen.
Transparenz und Offenlegung: Viele Landesgesetze zielen darauf ab, Verbraucher vor Täuschung zu bewahren, indem sie Unternehmen dazu verpflichten, den Verbrauchern offenzulegen, wann KI eingesetzt wird.
Automatisierte Entscheidungsfindung: Zur Wahrung der Privatsphäre der Verbraucher haben mehrere Bundesstaaten Gesetze erlassen, die Unternehmen dazu verpflichten, den Verbrauchern die Möglichkeit zu bieten, die Verarbeitung ihrer persönlichen Informationen für „Profiling“ abzulehnen.
Nicht einvernehmliche explizite Bilder und politische Deepfakes: Viele Bundesstaaten erlassen Gesetze, die dem bundesstaatlichen TAKE IT DOWN Act ähnlich sind, um nicht einvernehmlich erstellte, explizite KI-Inhalte zu bekämpfen.
Algorithmische Diskriminierung: Bundesstaaten beginnen, algorithmische Entscheidungsfindung und Preismodelle zu überprüfen, indem sie vorgeschriebene Offenlegungen verlangen.
Exekutivverordnung und Herausforderungen für Landesgesetze
Die Exekutivverordnung der vorherigen Bundesadministration signalisiert eine Präferenz für einen zentralisierten, minimalen Rahmen für KI und äußert Bedenken über das wachsende Durcheinander von Landesgesetzen.
Die Exekutivverordnung fordert den Generalstaatsanwalt und Bundesbehörden auf, potenziell bundesstaatlich vorgegebene Landesgesetze anzufechten und Empfehlungen für einen einheitlichen bundesstaatlichen Rechtsrahmen zu entwickeln.
Ausblick auf 2026
Die legislativen Trends werden sich weiterhin auf die Erhöhung der Transparenz durch erweiterte Offenlegungspflichten konzentrieren und den Schutz der Privatsphäre im Zusammenhang mit automatisierten Entscheidungstechnologien stärken.
Für 2026 wird erwartet, dass es eine verstärkte Kontrolle über hochriskante KI-Modelle geben wird, sowie neue vorgeschlagene Gesetze, die Chatbots betreffen, insbesondere hinsichtlich der Interaktionen mit Minderjährigen.
Fazit
Bis ein bundesstaatlicher Rahmen entsteht, der widersprüchliche Landesgesetze außer Kraft setzen könnte, bleiben die Bundesstaaten die Hauptregulierer der KI-Entwicklung und -Implementierung. Unternehmen sind gut beraten, ihre Compliance-Bemühungen auf Landesebene fortzusetzen, anstatt abzuwarten, bis sich die regulatorische Landschaft stabilisiert.