Schlüsselaspekte des neuen KI-Gesetzes in Texas

TRAIGA: Wichtige Bestimmungen des neuen Gesetzes zur Regulierung von Künstlicher Intelligenz in Texas

Am 31. Mai 2025 verabschiedete die texanische Legislative das House Bill 149, das Gesetz zur verantwortungsvollen Regulierung von Künstlicher Intelligenz in Texas (TRAIGA). TRAIGA legt Offenlegungsanforderungen für Entwickler und Betreiber von KI-Systemen fest, beschreibt verbotene Anwendungen von KI und etabliert zivilrechtliche Strafen für Verstöße. Das Gesetz trat am 1. Januar 2026 in Kraft und reiht sich ein in eine Reihe von Staaten, darunter Kalifornien, Colorado und Utah, die ähnliche Gesetze verabschiedet haben.

Für wen gilt TRAIGA? Wichtige Definitionen

TRAIGA gilt für zwei „Gruppen“: (1) betroffene Personen und Einheiten, die Entwickler und Betreiber umfassen, und (2) staatliche Einrichtungen.

Betroffene Personen und Einheiten: Betroffene Personen sind definiert als jede Person, die (1) in Texas Geschäfte tätigt, (2) ein Produkt oder eine Dienstleistung anbietet, die von texanischen Einwohnern genutzt wird, oder (3) ein KI-System in Texas entwickelt oder betreibt.

Entwickler und Betreiber: Ein „Entwickler“ ist eine Person, die ein KI-System entwickelt, das in Texas angeboten, verkauft, vermietet oder bereitgestellt wird, und ein „Betreiber“ ist eine Person, die ein KI-System in Texas in Betrieb nimmt.

Staatliche Einrichtungen: Eine „staatliche Einrichtung“ ist jede Abteilung, Kommission, Behörde oder andere Verwaltungseinheit von Texas, die staatliche Funktionen gemäß den Gesetzen von Texas ausübt. Ausdrücklich ausgeschlossen sind Krankenhausbezirke und Hochschulen.

Verbraucher: „Verbraucher“ bedeutet eine Person, die in Texas lebt und ausschließlich im individuellen oder häuslichen Kontext handelt. Somit unterliegen berufliche oder kommerzielle Anwendungen nicht TRAIGA.

Künstliches Intelligenzsystem: TRAIGA definiert ein „KI-System“ als „jedes maschinenbasierte System, das aus den Eingaben, die es erhält, ableitet, wie es Ausgaben generiert, die physische oder virtuelle Umgebungen beeinflussen können.“

Wie wird TRAIGA durchgesetzt?

Der texanische Generalstaatsanwalt hat die ausschließliche Befugnis zur Durchsetzung des Gesetzes, mit wenigen Ausnahmen, bei denen lizenzierte staatliche Behörden begrenzte Durchsetzungsbefugnisse haben. TRAIGA sieht jedoch kein privates Klagerecht vor.

Benachrichtigung und Möglichkeit zur Behebung: Bevor der Generalstaatsanwalt rechtliche Schritte einleiten kann, muss er eine schriftliche Mitteilung über den Verstoß an den mutmaßlichen Täter senden. Dieser hat dann 60 Tage Zeit, um:

  • den mutmaßlichen Verstoß zu beheben;
  • unterstützende Dokumente vorzulegen, die die Behebung nachweisen;
  • interne Richtlinien zu aktualisieren oder zu überarbeiten, um weitere Verstöße zu verhindern.

Zivile Strafen: TRAIGA legt zivilrechtliche Strafen fest, die die folgenden Kategorien umfassen:

  • Behebbare Verstöße: 10.000 – 12.000 USD pro Verstoß;
  • Nicht behebbare Verstöße: 80.000 – 200.000 USD pro Verstoß;
  • Fortdauernde Verstöße: 2.000 – 40.000 USD pro Tag.

Darüber hinaus kann der Generalstaatsanwalt Unterlassungsansprüche, Anwaltsgebühren und Ermittlungsgebühren geltend machen.

Sichere Häfen

TRAIGA sieht sichere Häfen und positive Verteidigungen vor. Eine Person ist nicht haftbar unter TRAIGA, wenn:

  • ein Dritter die KI auf eine Weise missbraucht, die TRAIGA verbietet;
  • die Person einen Verstoß durch Tests oder gutgläubige Prüfungen entdeckt;
  • die Person die NIST AI Risk Management Framework oder ähnliche, anerkannte Standards erheblich einhält.

Wie würde TRAIGA funktionieren?

Die Abschnitte über die Offenlegung an Verbraucher und die verbotenen Anwendungen von KI könnten Auswirkungen auf Unternehmen haben.

Offenlegung an Verbraucher: Regierungsbehörden sind verpflichtet, jedem Verbraucher vor oder zum Zeitpunkt der Interaktion mitzuteilen, dass die Interaktion mit einer KI erfolgt (auch wenn diese Offenlegung für einen vernünftigen Verbraucher offensichtlich wäre). Die Offenlegung muss klar und auffällig sein, in einfacher Sprache verfasst und darf kein dunkles Muster verwenden.

Verbotene Anwendungen: TRAIGA verbietet ausdrücklich einer staatlichen Einrichtung, KI zu verwenden, um:

  • ein soziales Punktesystem zuzuweisen;
  • eine spezifische Person mithilfe von biometrischen Daten eindeutig zu identifizieren, ohne deren Zustimmung;
  • Selbstverletzung, Verbrechen oder Gewalt anzustiften oder zu fördern;
  • die Rechte eines Individuums, die durch die US-Verfassung garantiert sind, zu verletzen;
  • unrechtmäßig gegen eine geschützte Klasse im Widerspruch zu bundesstaatlichen oder bundesrechtlichen Gesetzen zu diskriminieren.

TRAIGA etabliert zudem ein Sandbox-Programm, um Unternehmen zu ermöglichen, KI in einem kontrollierten Umfeld zu testen, ohne die vollständige Einhaltung der Vorschriften.

Compliance-Überlegungen zu TRAIGA

  • Anwendbarkeit bewerten: Unternehmen sollten alle in Texas entwickelten oder betriebenen KI-Systeme inventorisieren, um zu bestimmen, ob diese TRAIGAs Definition eines „maschinenbasierten Systems, das Eingaben ableitet, um Ausgaben zu generieren, die physische oder virtuelle Umgebungen beeinflussen können“ erfüllen.
  • Fallanalyse verwenden: Unternehmen sollten prüfen, ob ihre KI-Systeme mit Verbrauchern interagieren, die Rechte gemäß der Verfassung potenziell verletzen oder geschützte Klassen betreffen.
  • Überprüfung der Benachrichtigungsanforderung: Regierungsbehörden sollten klare und auffällige Offenlegungen implementieren, wo immer KI mit texanischen Verbrauchern interagiert.
  • Risikoframework-Ausrichtung: Unternehmen und staatliche Einrichtungen sollten ihre aktuellen KI-Programme mit nationalen/internationalen anerkannten KI-Risikorahmen abgleichen.
  • Teilnahme am Sandbox-Programm: Unternehmen, die ein neuartiges KI-Produkt entwickeln, sollten in Erwägung ziehen, am Sandbox-Programm teilzunehmen.

Am 22. Mai 2025 verabschiedete das Repräsentantenhaus einen Vorschlag zur Einführung eines 10-jährigen Moratoriums auf bundesstaatliche Gesetze zur Regulierung von KI. Der Vorschlag bleibt im Gesetzesentwurf enthalten, was potenziell TRAIGA und andere aktive bundesstaatliche KI-Gesetze betreffen könnte.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...