Texas verabschiedet umfassendes KI-Gesetz: Offenlegung und Einwilligung ab 2026

Texas Verabschiedet Umfassendes KI-Gesetz: Offenlegungs-, Einwilligungs- und Compliance-Anforderungen Treten 2026 In Kraft

Am 22. Juni 2025 unterzeichnete der Gouverneur von Texas, Greg Abbott, das Hausgesetz 149 und führte damit den Texas Responsible Artificial Intelligence Governance Act (TRAIGA) ein. Dieses Gesetz etabliert einen der umfassendsten staatlichen Regulierungsrahmen für künstliche Intelligenz (KI) in den USA. TRAIGA legt Offenlegungs-, Einwilligungs- und Compliance-Anforderungen für Entwickler, Anbieter und staatliche Institutionen fest, die KI-Systeme nutzen. Das Gesetz tritt am 1. Januar 2026 in Kraft.

Definition von KI-Systemen

TRAIGA definiert ein „künstliches Intelligenzsystem“ als jedes maschinenbasierte System, das Eingaben verwendet, um Inhalte, Entscheidungen, Vorhersagen oder Empfehlungen zu generieren, die physische oder virtuelle Umgebungen beeinflussen können. Ziel des Gesetzes ist es, die verantwortungsvolle Entwicklung und Nutzung von KI voranzutreiben und gleichzeitig Einzelpersonen vor absehbaren Risiken durch strukturierte Aufsicht, Offenlegungsanforderungen und neue Programme wie einen regulatorischen Sandbox zu schützen.

Wesentliche Bestimmungen von TRAIGA

  • Verbraucherschutz: Das Gesetz verbietet die Nutzung von KI-Modellen, die absichtlich gegen geschützte Klassen diskriminieren, verfassungsmäßige Rechte verletzen oder Schaden anrichten. Darüber hinaus ist es staatlichen Stellen untersagt, KI zur Identifizierung von Personen durch biometrische Daten ohne informierte Einwilligung oder zur Vergabe von Sozialpunkten basierend auf Verhalten oder persönlichen Merkmalen zu verwenden.
  • Offenlegungsrichtlinien: Jede staatliche oder kommerzielle Institution, die ein KI-System einsetzt, das mit Verbrauchern interagiert, muss eine klare und auffällige Offenlegung in einfacher Sprache bereitstellen. Diese Offenlegung muss vor oder zum Zeitpunkt der Interaktion erfolgen und darf keine irreführenden Schnittstellendesigns verwenden, die als „dunkle Muster“ bekannt sind.
  • KI-Regulatorisches Sandbox-Programm: Unter der Genehmigung des Ministeriums für Informationsressourcen und anderer zuständiger Behörden kann eine Person ein KI-Programm in einer kontrollierten Umgebung testen, ohne nach texanischem Recht lizenziert zu sein. Während dieser Testphase kann der Generalstaatsanwalt keine Anklage gegen einen Programmteilnehmer wegen eines Verstoßes erheben, der während dieser Zeit auftritt.
  • Sichere Häfen: Einrichtungen, die substantiell mit anerkannten Risikomanagement-Rahmenwerken, wie dem NIST AI Risk Management Framework, übereinstimmen oder Verstöße durch interne Audits oder adversariales Testen entdecken, können Schutz vor Durchsetzungsmaßnahmen erhalten.
  • Durchsetzung und zivilrechtliche Strafen: Der Generalstaatsanwalt von Texas hat die exklusive Durchsetzungsbehörde. Die zivilrechtlichen Strafen reichen von 10.000 bis 200.000 US-Dollar pro Verstoß, mit täglichen Strafen für fortgesetzte Nicht-Compliance.

Umsetzung von TRAIGA

Mit TRAIGA wird Texas der zweite Bundesstaat, der einen umfassenden Regulierungsrahmen für KI einführt, nachdem Colorado 2024 ein entsprechendes Gesetz verabschiedet hat. Während die Bundesstaaten weiterhin unterschiedliche Ansätze zur KI-Regulierung verfolgen, sollten Marktteilnehmer die sich entwickelnde Vielfalt an bundesstaatlichen Vorschriften genau beobachten, um ihre Compliance-Verpflichtungen zu bewerten, Risikomanagementstrategien anzupassen und die operativen Auswirkungen in verschiedenen Jurisdiktionen zu planen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...