Schlüsselaspekte des neuen KI-Gesetzes in Texas

TRAIGA: Wichtige Bestimmungen des neuen Gesetzes zur Regulierung von Künstlicher Intelligenz in Texas

Am 31. Mai 2025 verabschiedete die texanische Legislative das House Bill 149, das Gesetz zur verantwortungsvollen Regulierung von Künstlicher Intelligenz in Texas (TRAIGA). TRAIGA legt Offenlegungsanforderungen für Entwickler und Betreiber von KI-Systemen fest, beschreibt verbotene Anwendungen von KI und etabliert zivilrechtliche Strafen für Verstöße. Das Gesetz trat am 1. Januar 2026 in Kraft und reiht sich ein in eine Reihe von Staaten, darunter Kalifornien, Colorado und Utah, die ähnliche Gesetze verabschiedet haben.

Für wen gilt TRAIGA? Wichtige Definitionen

TRAIGA gilt für zwei „Gruppen“: (1) betroffene Personen und Einheiten, die Entwickler und Betreiber umfassen, und (2) staatliche Einrichtungen.

Betroffene Personen und Einheiten: Betroffene Personen sind definiert als jede Person, die (1) in Texas Geschäfte tätigt, (2) ein Produkt oder eine Dienstleistung anbietet, die von texanischen Einwohnern genutzt wird, oder (3) ein KI-System in Texas entwickelt oder betreibt.

Entwickler und Betreiber: Ein „Entwickler“ ist eine Person, die ein KI-System entwickelt, das in Texas angeboten, verkauft, vermietet oder bereitgestellt wird, und ein „Betreiber“ ist eine Person, die ein KI-System in Texas in Betrieb nimmt.

Staatliche Einrichtungen: Eine „staatliche Einrichtung“ ist jede Abteilung, Kommission, Behörde oder andere Verwaltungseinheit von Texas, die staatliche Funktionen gemäß den Gesetzen von Texas ausübt. Ausdrücklich ausgeschlossen sind Krankenhausbezirke und Hochschulen.

Verbraucher: „Verbraucher“ bedeutet eine Person, die in Texas lebt und ausschließlich im individuellen oder häuslichen Kontext handelt. Somit unterliegen berufliche oder kommerzielle Anwendungen nicht TRAIGA.

Künstliches Intelligenzsystem: TRAIGA definiert ein „KI-System“ als „jedes maschinenbasierte System, das aus den Eingaben, die es erhält, ableitet, wie es Ausgaben generiert, die physische oder virtuelle Umgebungen beeinflussen können.“

Wie wird TRAIGA durchgesetzt?

Der texanische Generalstaatsanwalt hat die ausschließliche Befugnis zur Durchsetzung des Gesetzes, mit wenigen Ausnahmen, bei denen lizenzierte staatliche Behörden begrenzte Durchsetzungsbefugnisse haben. TRAIGA sieht jedoch kein privates Klagerecht vor.

Benachrichtigung und Möglichkeit zur Behebung: Bevor der Generalstaatsanwalt rechtliche Schritte einleiten kann, muss er eine schriftliche Mitteilung über den Verstoß an den mutmaßlichen Täter senden. Dieser hat dann 60 Tage Zeit, um:

  • den mutmaßlichen Verstoß zu beheben;
  • unterstützende Dokumente vorzulegen, die die Behebung nachweisen;
  • interne Richtlinien zu aktualisieren oder zu überarbeiten, um weitere Verstöße zu verhindern.

Zivile Strafen: TRAIGA legt zivilrechtliche Strafen fest, die die folgenden Kategorien umfassen:

  • Behebbare Verstöße: 10.000 – 12.000 USD pro Verstoß;
  • Nicht behebbare Verstöße: 80.000 – 200.000 USD pro Verstoß;
  • Fortdauernde Verstöße: 2.000 – 40.000 USD pro Tag.

Darüber hinaus kann der Generalstaatsanwalt Unterlassungsansprüche, Anwaltsgebühren und Ermittlungsgebühren geltend machen.

Sichere Häfen

TRAIGA sieht sichere Häfen und positive Verteidigungen vor. Eine Person ist nicht haftbar unter TRAIGA, wenn:

  • ein Dritter die KI auf eine Weise missbraucht, die TRAIGA verbietet;
  • die Person einen Verstoß durch Tests oder gutgläubige Prüfungen entdeckt;
  • die Person die NIST AI Risk Management Framework oder ähnliche, anerkannte Standards erheblich einhält.

Wie würde TRAIGA funktionieren?

Die Abschnitte über die Offenlegung an Verbraucher und die verbotenen Anwendungen von KI könnten Auswirkungen auf Unternehmen haben.

Offenlegung an Verbraucher: Regierungsbehörden sind verpflichtet, jedem Verbraucher vor oder zum Zeitpunkt der Interaktion mitzuteilen, dass die Interaktion mit einer KI erfolgt (auch wenn diese Offenlegung für einen vernünftigen Verbraucher offensichtlich wäre). Die Offenlegung muss klar und auffällig sein, in einfacher Sprache verfasst und darf kein dunkles Muster verwenden.

Verbotene Anwendungen: TRAIGA verbietet ausdrücklich einer staatlichen Einrichtung, KI zu verwenden, um:

  • ein soziales Punktesystem zuzuweisen;
  • eine spezifische Person mithilfe von biometrischen Daten eindeutig zu identifizieren, ohne deren Zustimmung;
  • Selbstverletzung, Verbrechen oder Gewalt anzustiften oder zu fördern;
  • die Rechte eines Individuums, die durch die US-Verfassung garantiert sind, zu verletzen;
  • unrechtmäßig gegen eine geschützte Klasse im Widerspruch zu bundesstaatlichen oder bundesrechtlichen Gesetzen zu diskriminieren.

TRAIGA etabliert zudem ein Sandbox-Programm, um Unternehmen zu ermöglichen, KI in einem kontrollierten Umfeld zu testen, ohne die vollständige Einhaltung der Vorschriften.

Compliance-Überlegungen zu TRAIGA

  • Anwendbarkeit bewerten: Unternehmen sollten alle in Texas entwickelten oder betriebenen KI-Systeme inventorisieren, um zu bestimmen, ob diese TRAIGAs Definition eines „maschinenbasierten Systems, das Eingaben ableitet, um Ausgaben zu generieren, die physische oder virtuelle Umgebungen beeinflussen können“ erfüllen.
  • Fallanalyse verwenden: Unternehmen sollten prüfen, ob ihre KI-Systeme mit Verbrauchern interagieren, die Rechte gemäß der Verfassung potenziell verletzen oder geschützte Klassen betreffen.
  • Überprüfung der Benachrichtigungsanforderung: Regierungsbehörden sollten klare und auffällige Offenlegungen implementieren, wo immer KI mit texanischen Verbrauchern interagiert.
  • Risikoframework-Ausrichtung: Unternehmen und staatliche Einrichtungen sollten ihre aktuellen KI-Programme mit nationalen/internationalen anerkannten KI-Risikorahmen abgleichen.
  • Teilnahme am Sandbox-Programm: Unternehmen, die ein neuartiges KI-Produkt entwickeln, sollten in Erwägung ziehen, am Sandbox-Programm teilzunehmen.

Am 22. Mai 2025 verabschiedete das Repräsentantenhaus einen Vorschlag zur Einführung eines 10-jährigen Moratoriums auf bundesstaatliche Gesetze zur Regulierung von KI. Der Vorschlag bleibt im Gesetzesentwurf enthalten, was potenziell TRAIGA und andere aktive bundesstaatliche KI-Gesetze betreffen könnte.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...