TRAIGA: Wichtige Bestimmungen des neuen Gesetzes zur Regulierung von Künstlicher Intelligenz in Texas
Am 31. Mai 2025 verabschiedete die texanische Legislative das House Bill 149, das Gesetz zur verantwortungsvollen Regulierung von Künstlicher Intelligenz in Texas (TRAIGA). TRAIGA legt Offenlegungsanforderungen für Entwickler und Betreiber von KI-Systemen fest, beschreibt verbotene Anwendungen von KI und etabliert zivilrechtliche Strafen für Verstöße. Das Gesetz trat am 1. Januar 2026 in Kraft und reiht sich ein in eine Reihe von Staaten, darunter Kalifornien, Colorado und Utah, die ähnliche Gesetze verabschiedet haben.
Für wen gilt TRAIGA? Wichtige Definitionen
TRAIGA gilt für zwei „Gruppen“: (1) betroffene Personen und Einheiten, die Entwickler und Betreiber umfassen, und (2) staatliche Einrichtungen.
Betroffene Personen und Einheiten: Betroffene Personen sind definiert als jede Person, die (1) in Texas Geschäfte tätigt, (2) ein Produkt oder eine Dienstleistung anbietet, die von texanischen Einwohnern genutzt wird, oder (3) ein KI-System in Texas entwickelt oder betreibt.
Entwickler und Betreiber: Ein „Entwickler“ ist eine Person, die ein KI-System entwickelt, das in Texas angeboten, verkauft, vermietet oder bereitgestellt wird, und ein „Betreiber“ ist eine Person, die ein KI-System in Texas in Betrieb nimmt.
Staatliche Einrichtungen: Eine „staatliche Einrichtung“ ist jede Abteilung, Kommission, Behörde oder andere Verwaltungseinheit von Texas, die staatliche Funktionen gemäß den Gesetzen von Texas ausübt. Ausdrücklich ausgeschlossen sind Krankenhausbezirke und Hochschulen.
Verbraucher: „Verbraucher“ bedeutet eine Person, die in Texas lebt und ausschließlich im individuellen oder häuslichen Kontext handelt. Somit unterliegen berufliche oder kommerzielle Anwendungen nicht TRAIGA.
Künstliches Intelligenzsystem: TRAIGA definiert ein „KI-System“ als „jedes maschinenbasierte System, das aus den Eingaben, die es erhält, ableitet, wie es Ausgaben generiert, die physische oder virtuelle Umgebungen beeinflussen können.“
Wie wird TRAIGA durchgesetzt?
Der texanische Generalstaatsanwalt hat die ausschließliche Befugnis zur Durchsetzung des Gesetzes, mit wenigen Ausnahmen, bei denen lizenzierte staatliche Behörden begrenzte Durchsetzungsbefugnisse haben. TRAIGA sieht jedoch kein privates Klagerecht vor.
Benachrichtigung und Möglichkeit zur Behebung: Bevor der Generalstaatsanwalt rechtliche Schritte einleiten kann, muss er eine schriftliche Mitteilung über den Verstoß an den mutmaßlichen Täter senden. Dieser hat dann 60 Tage Zeit, um:
- den mutmaßlichen Verstoß zu beheben;
- unterstützende Dokumente vorzulegen, die die Behebung nachweisen;
- interne Richtlinien zu aktualisieren oder zu überarbeiten, um weitere Verstöße zu verhindern.
Zivile Strafen: TRAIGA legt zivilrechtliche Strafen fest, die die folgenden Kategorien umfassen:
- Behebbare Verstöße: 10.000 – 12.000 USD pro Verstoß;
- Nicht behebbare Verstöße: 80.000 – 200.000 USD pro Verstoß;
- Fortdauernde Verstöße: 2.000 – 40.000 USD pro Tag.
Darüber hinaus kann der Generalstaatsanwalt Unterlassungsansprüche, Anwaltsgebühren und Ermittlungsgebühren geltend machen.
Sichere Häfen
TRAIGA sieht sichere Häfen und positive Verteidigungen vor. Eine Person ist nicht haftbar unter TRAIGA, wenn:
- ein Dritter die KI auf eine Weise missbraucht, die TRAIGA verbietet;
- die Person einen Verstoß durch Tests oder gutgläubige Prüfungen entdeckt;
- die Person die NIST AI Risk Management Framework oder ähnliche, anerkannte Standards erheblich einhält.
Wie würde TRAIGA funktionieren?
Die Abschnitte über die Offenlegung an Verbraucher und die verbotenen Anwendungen von KI könnten Auswirkungen auf Unternehmen haben.
Offenlegung an Verbraucher: Regierungsbehörden sind verpflichtet, jedem Verbraucher vor oder zum Zeitpunkt der Interaktion mitzuteilen, dass die Interaktion mit einer KI erfolgt (auch wenn diese Offenlegung für einen vernünftigen Verbraucher offensichtlich wäre). Die Offenlegung muss klar und auffällig sein, in einfacher Sprache verfasst und darf kein dunkles Muster verwenden.
Verbotene Anwendungen: TRAIGA verbietet ausdrücklich einer staatlichen Einrichtung, KI zu verwenden, um:
- ein soziales Punktesystem zuzuweisen;
- eine spezifische Person mithilfe von biometrischen Daten eindeutig zu identifizieren, ohne deren Zustimmung;
- Selbstverletzung, Verbrechen oder Gewalt anzustiften oder zu fördern;
- die Rechte eines Individuums, die durch die US-Verfassung garantiert sind, zu verletzen;
- unrechtmäßig gegen eine geschützte Klasse im Widerspruch zu bundesstaatlichen oder bundesrechtlichen Gesetzen zu diskriminieren.
TRAIGA etabliert zudem ein Sandbox-Programm, um Unternehmen zu ermöglichen, KI in einem kontrollierten Umfeld zu testen, ohne die vollständige Einhaltung der Vorschriften.
Compliance-Überlegungen zu TRAIGA
- Anwendbarkeit bewerten: Unternehmen sollten alle in Texas entwickelten oder betriebenen KI-Systeme inventorisieren, um zu bestimmen, ob diese TRAIGAs Definition eines „maschinenbasierten Systems, das Eingaben ableitet, um Ausgaben zu generieren, die physische oder virtuelle Umgebungen beeinflussen können“ erfüllen.
- Fallanalyse verwenden: Unternehmen sollten prüfen, ob ihre KI-Systeme mit Verbrauchern interagieren, die Rechte gemäß der Verfassung potenziell verletzen oder geschützte Klassen betreffen.
- Überprüfung der Benachrichtigungsanforderung: Regierungsbehörden sollten klare und auffällige Offenlegungen implementieren, wo immer KI mit texanischen Verbrauchern interagiert.
- Risikoframework-Ausrichtung: Unternehmen und staatliche Einrichtungen sollten ihre aktuellen KI-Programme mit nationalen/internationalen anerkannten KI-Risikorahmen abgleichen.
- Teilnahme am Sandbox-Programm: Unternehmen, die ein neuartiges KI-Produkt entwickeln, sollten in Erwägung ziehen, am Sandbox-Programm teilzunehmen.
Am 22. Mai 2025 verabschiedete das Repräsentantenhaus einen Vorschlag zur Einführung eines 10-jährigen Moratoriums auf bundesstaatliche Gesetze zur Regulierung von KI. Der Vorschlag bleibt im Gesetzesentwurf enthalten, was potenziell TRAIGA und andere aktive bundesstaatliche KI-Gesetze betreffen könnte.