Texas verabschiedet Gesetz für verantwortungsvolle KI-Governance

Texas verabschiedet das Gesetz über verantwortungsvolle KI-Governance

Am 22. Juni 2025 unterzeichnete der Gouverneur von Texas, Greg Abbott, das Gesetz über verantwortungsvolle KI-Governance (TRAIGA oder das Gesetz), das das endgültige Kapitel eines Gesetzes markiert, das nationale Aufmerksamkeit erhielt und während des Gesetzgebungsprozesses erhebliche Änderungen erfuhr.

Ursprünglich im Dezember 2024 eingeführt, schlug der erste Entwurf von TRAIGA ein umfassendes regulatorisches Schema vor, das sich an dem Gesetz über künstliche Intelligenz von Colorado und dem EU-KI-Gesetz orientierte. Der Fokus lag auf „hochriskanten“ künstlichen Intelligenzsystemen und setzte erhebliche Anforderungen und Haftungen für Entwickler und Anbieter im privaten Sektor voraus. Im März 2025 führten jedoch texanische Gesetzgeber eine geänderte Version ein, die den Anwendungsbereich des Gesetzes erheblich einschränkte. Viele der ursprünglich drakonischen Anforderungen — wie die Pflicht, Verbraucher vor vorhersehbarem Schaden zu schützen, Auswirkungen zu bewerten und die Einzelheiten von hochriskanten KI-Systemen offenzulegen — wurden entweder vollständig gestrichen oder nur auf staatliche Stellen beschränkt.

Dennoch enthält die verabschiedete Version von TRAIGA eine Reihe von Bestimmungen, die Unternehmen, die in Texas tätig sind, betreffen könnten. Besonders hervorzuheben ist, dass das Gesetz kategorische Beschränkungen für die Entwicklung und den Einsatz von KI-Systemen für bestimmte Zwecke auferlegt, darunter Verhaltensmanipulation, Diskriminierung, die Erstellung oder Verbreitung von Kinderpornografie und rechtswidrigen Deepfakes sowie die Verletzung von Verfassungsrechten.

Substantielle Bestimmungen von TRAIGA

Verbotene KI-Praktiken

TRAIGA verbietet die Entwicklung oder den Einsatz eines KI-Systems für bestimmte Zwecke, einschließlich durch private Unternehmen, die Geschäfte in Texas tätigen, ein Produkt oder eine Dienstleistung für texanische Einwohner herstellen oder ein KI-System in Texas entwickeln oder bereitstellen. Diese Verbote umfassen:

  1. Manipulation des menschlichen Verhaltens: KI-Systeme dürfen nicht entwickelt oder eingesetzt werden, um absichtlich eine Person zu ermutigen, sich selbst oder andere körperlich zu schädigen oder kriminelle Aktivitäten zu begehen.
  2. Verfassungsmäßiger Schutz: KI-Systeme dürfen nicht mit dem alleinigen Ziel entwickelt oder eingesetzt werden, die Bundesverfassungsrechte einer Person zu verletzen, einzuschränken oder zu beeinträchtigen.
  3. Illegale Diskriminierung: KI-Systeme dürfen nicht mit der Absicht entwickelt oder eingesetzt werden, gegen eine geschützte Klasse nach Bundes- oder Landesrecht illegal zu diskriminieren.
  4. Sexuell explizite Inhalte: KI-Systeme dürfen nicht mit dem alleinigen Ziel entwickelt oder verbreitet werden, Kinderpornografie oder rechtswidrige Deepfake-Videos oder -Bilder zu erzeugen oder zu unterstützen.

Das Gesetz besagt, dass diese Verbote „breit ausgelegt und angewendet“ werden sollten, um die zugrunde liegenden Zwecke von TRAIGA zu fördern, zu denen die verantwortungsvolle Entwicklung von KI und der Schutz der Öffentlichkeit vor vorhersehbaren Risiken im Zusammenhang mit KI gehören.

Durchsetzung und Strafen

TRAIGA überträgt die Durchsetzungsbehörde ausschließlich dem Attorney General von Texas. Unter dem Gesetz muss der Attorney General einen Meldemechanismus auf seiner Website entwickeln, um Verbraucherbeschwerden über mögliche Verstöße zu erleichtern. Nach Erhalt einer Verbraucherbeschwerde kann der Attorney General eine zivilrechtliche Ermittlungsaufforderung an Parteien erlassen, die verdächtigt werden, TRAIGA verletzt zu haben.

Nach Erhalt einer Mitteilung über einen Verstoß hat eine Partei 60 Tage Zeit, um einen Verstoß zu beheben und dem Attorney General Dokumentationen vorzulegen, die erläutern, wie die angeblichen Verstöße behoben wurden. Der Attorney General kann erst nach Ablauf der Nachbesserungsfrist eine Durchsetzungsaktion einleiten.

Regulatorisches Sandkastenprogramm

TRAIGA führt ein regulatorisches Sandkastenprogramm ein, das vom Department of Information Resources (DIR) verwaltet wird und darauf abzielt, die Tests und die Entwicklung von KI-Systemen unter gelockerten regulatorischen Beschränkungen zu unterstützen.

Interessierte Parteien müssen einen Antrag einreichen, der eine detaillierte Beschreibung des KI-Systems enthält, das im Rahmen des Programms getestet werden soll; eine Nutzenbewertung, die Auswirkungen auf Verbraucher, Datenschutz und öffentliche Sicherheit behandelt; sowie Pläne zur Minderung möglicher negativer Folgen während der Testphase.

Texas Artificial Intelligence Council

Schließlich etabliert TRAIGA den Texas Artificial Intelligence Advisory Council, der aus sieben qualifizierten Mitgliedern besteht, die vom Gouverneur, Vizegouverneur und Sprecher des Hauses ernannt werden. Der Rat hat die Aufgabe, KI-Sch Schulungsprogramme für staatliche Behörden und lokale Regierungen durchzuführen und kann Berichte zu KI-bezogenen Themen herausgeben.

Praktische Erkenntnisse für Entwickler und Anbieter

Entwickler und Anbieter, die in Texas tätig sind, haben Zeit, um sicherzustellen, dass sie vor Inkrafttreten von TRAIGA am 1. Januar 2026 konform sind. Unternehmen sollten beginnen, zu bewerten, ob sie ein KI-System entwickelt oder bereitgestellt haben (oder beabsichtigen, dies zu tun), das eines der verbotenen Verwendungszwecke von TRAIGA betreffen könnte.

Das Gesetz ermutigt Entwickler und Anbieter, proaktiv zu sein, um potenzielle Probleme zu vermeiden, indem es die Haftung für Parteien, die ihre eigenen Verstöße identifizieren und beheben, einschränkt. Es wird empfohlen, robuste interne Prozesse zur Identifizierung potenzieller Verstöße einzurichten.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...