Texas verabschiedet das Gesetz zur verantwortungsvollen KI-Governance
Am 22. Juni 2025 unterzeichnete Gouverneur Abbott das HB 149, das als „Texas Responsible Artificial Intelligence Governance Act“ (TRAIGA) bekannt ist. Damit wird Texas der dritte US-Bundesstaat, nach Colorado und Utah, der ein umfassendes Gesetz zur künstlichen Intelligenz (KI) verabschiedet. Während das Gesetz einige Ähnlichkeiten mit anderen staatlichen und globalen KI-Vorschriften aufweist, enthält es auch wichtige Unterschiede, die darauf abzielen, ein innovationsfreundlicheres Gleichgewicht zu schaffen, wie beispielsweise einen höheren „Absicht“-Standard zur Feststellung von algorithmischer Voreingenommenheit, mehrere Sicherheitsklauseln und die Vorab-Übertragung lokaler KI-Regulierungen.
Das Gesetz tritt am 1. Januar 2026 in Kraft und gibt Unternehmen etwa 18 Monate Zeit, um Compliance-Programme einzuführen. Organisationen, die national oder global tätig sind, wird geraten, diese Bemühungen mit den schnell bevorstehenden Anforderungen des EU-KI-Gesetzes und des Colorado-KI-Gesetzes in Einklang zu bringen.
Umfang und Definitionen
Das Gesetz gilt für jede Person, die „Werbung macht, Geschäfte betreibt“ in Texas, Produkte oder Dienstleistungen für Texas-Bewohner anbietet oder ein KI-System im Bundesstaat „entwickelt oder bereitstellt“. Das Gesetz definiert ein „künstliches Intelligenzsystem“ als „jedes maschinenbasierte System, das, für ein explizites oder implizites Ziel, aus den Eingaben, die das System erhält, ableitet, wie Ausgaben generiert werden … die physische oder virtuelle Umgebungen beeinflussen können.“ Diese Definition ist technologie- und sektorenunabhängig und stellt sicher, dass generative Modelle, Empfehlungssysteme, biometrische Systeme und mehr abgedeckt sind.
Ähnlich wie das EU-KI-Gesetz und das Colorado-KI-Gesetz weist das Texas-Gesetz Verantwortlichkeiten nach Rolle zu:
- Entwickler: Jede Person, die ein KI-System erstellt, das in Texas angeboten, verkauft, vermietet oder anderweitig bereitgestellt wird.
- Bereitsteller: Jede Person, die ein KI-System im Bundesstaat in Betrieb nimmt oder nutzt.
Grundlegende Pflichten und Verbote
- Transparenz für Verbraucher: Staatliche Stellen müssen den Personen mitteilen, dass sie mit einem KI-System interagieren, bevor oder zu dem Zeitpunkt der Interaktion. Die Mitteilung muss klar, auffällig und in einfacher Sprache erfolgen; Hyperlinks sind ausdrücklich erlaubt.
- Manipulation menschlichen Verhaltens: Entwickler und Bereitsteller dürfen KI nicht absichtlich nutzen, um Selbstverletzungen, Gewalt oder kriminelle Aktivitäten zu fördern.
- Verbot der sozialen Bewertung: Texas verbietet es staatlichen Stellen, KI-Systeme zu verwenden oder bereitzustellen, die Individuen kategorisieren, um eine „soziale Bewertung“ zuzuweisen, die zu nachteiliger Behandlung führen könnte.
- Schutz von biometrischen Daten: Ohne die Zustimmung einer Person dürfen staatliche Stellen KI nicht verwenden, um eine Person über biometrische Daten zu identifizieren, die aus öffentlichen Quellen stammen.
- Verfassungsrechte und unrechtmäßige Diskriminierung: KI-Systeme dürfen nicht „mit dem alleinigen Ziel“ entwickelt oder bereitgestellt werden, um die Rechte einer Person gemäß der US-Verfassung zu verletzen oder gegen eine geschützte Klasse zu diskriminieren.
- Sexuell explizite Inhalte mit Minderjährigen: KI-Systeme dürfen nicht „mit dem alleinigen Ziel der Erstellung, Unterstützung oder Verbreitung“ von KI-generiertem Kindesmissbrauchsmaterial und „Deepfake“-Inhalten, die Minderjährige darstellen, entwickelt oder bereitgestellt werden.
Bemerkenswert ist, dass das Gesetz eine hohe Schwelle für die Haftung in Bezug auf zwei der oben genannten Verbote setzt. Um gegen die Vorschriften des Gesetzes zu verstoßen, muss ein Entwickler oder Bereitsteller mit Absicht gehandelt haben, was das Texas-Gesetz einzigartig unter den anderen spezifischen KI-Gesetzen der Bundesstaaten macht.
Regulatorischer Sandbox für KI
Das Gesetz schafft eine 36-monatige Sandbox, die vom Department of Information Resources (DIR) in Zusammenarbeit mit dem neuen Texas Artificial Intelligence Council verwaltet wird. Genehmigte Teilnehmer dürfen innovative KI-Anwendungen testen, ohne die sonst erforderlichen staatlichen Lizenzen oder Genehmigungen zu erhalten. Dies unterliegt:
- einem Antrag, der das System, die Vorteile, Risiken und Minderungsmaßnahmen beschreibt,
- vierteljährlicher Berichterstattung über Leistungskennzahlen und Verbraucherfeedback, und
- der Befugnis des DIR, die Teilnahme zu beenden, wenn die Risiken unangemessen werden.
Durchsetzung und Vorab-Übertragung
- Exklusive Befugnis: Der Texas AG hat die ausschließliche Befugnis zur Durchsetzung dieses Gesetzes.
- Hinweis und Heilung: Wenn der AG feststellt, dass eine Person gegen das Gesetz verstoßen hat, muss er einen Hinweis zur Heilung geben.
- Zivilstrafen: Strafen können bis zu 200.000 USD pro nicht heilbarem Verstoß betragen.
- Landesweite Vorab-Übertragung: Das Gesetz hebt ausdrücklich alle Stadt- oder Landkreisverordnungen auf, die KI regulieren.
- Kein privates Klagerecht: Das Gesetz schafft kein privates Klagerecht.
Sicherheitsklauseln
Das Gesetz legt mehrere Sicherheitsklauseln für Organisationen fest, gegen die der AG eine zivilrechtliche Geldstrafe oder einstweilige Verfügung beantragt hat. Beispielsweise kann ein Beklagter nicht haftbar gemacht werden, wenn er „einen Verstoß entdeckt … durch Tests, einschließlich adversarial testing oder red-team testing“ oder wenn er „wesentlich in Übereinstimmung mit der neuesten Version des „Artificial Intelligence Risk Management Framework“ ist.
Wie steht Texas im Vergleich?
Texas | Colorado | EU KI-Gesetz |
---|---|---|
Wirksamkeitsdatum: 1. Januar 2026 | Wirksamkeitsdatum: 1. Februar 2026 | Wirksamkeitsdatum: 2. Februar 2025 |
Risikorahmen: Pflichten/Verbote basieren auf spezifischen Praktiken; keine formelle Einteilung | Rahmen für „hochriskante“ KI | Verbote, hoch, begrenzt und minimal |
Betroffene Akteure: Entwickler und Bereitsteller | Entwickler und Bereitsteller | Bereitsteller, Entwickler, Importeure und Händler |
Transparenz: Pflicht zur Mitteilung von KI-Interaktionen für staatliche Stellen | Verbrauchermitteilung für hochriskante Entscheidungen | Pflicht zur Offenlegung der meisten KI-Interaktionen |
Diskriminierungsstandard: „Absicht zu diskriminieren“ erforderlich | „Algorithmische Diskriminierung“ (auswirkungsorientiert) | Bewertung der Auswirkungen auf Grundrechte für hochriskante KI-Systeme |
Sandbox: Ja – 36 Monate, breit | Nein | Mitgliedstaaten müssen bis zum 2. August 2026 mindestens eine KI-Regulatorische Sandbox auf nationaler Ebene einrichten |
Strafen: AG-Durchsetzung; bis zu 200.000 USD | AG-Durchsetzung; Strafen werden durch Regel festgelegt | Gestaffelte Strafen je nach Art des Verstoßes; bis zu 35 Millionen EUR oder 7 Prozent des weltweiten Jahresumsatzes |
Die drohende föderale Moratorium
Am 22. Mai 2025 wurde das Budgetversöhnungsgesetz des US-Repräsentantenhauses mit einem zehnjährigen Moratorium vorangetrieben, das Staaten und Kommunen daran hindern würde, KI-spezifische Gesetze durchzusetzen. Ein aufstrebender Senatsentwurf des Gesetzes, der am 5. Juni 2025 vom Senatsausschuss für Handel, Wissenschaft und Verkehr veröffentlicht wurde, würde den Erhalt zukünftiger Mittel an die Bedingung knüpfen, dass ein Bundesstaat zustimmt, keine KI-Modelle oder automatisierten Entscheidungssysteme zu regulieren.
Wenn der Kongress diesen Ansatz annimmt, wird Texas vor einer unmittelbaren politischen Entscheidung stehen: (i) die Durchsetzung des Gesetzes auszusetzen oder (ii) mit dem Gesetz fortzufahren und Bundesmittel zu verlieren.
Nächste Schritte
Obwohl Unsicherheit über die Auswirkungen staatlicher Gesetze im Kontext eines möglichen föderalen Moratoriums besteht, können Unternehmen Schritte unternehmen, um sich auf die Durchsetzung vorzubereiten und ihre KI-Governance-Strategie weiterzuentwickeln, einschließlich:
- Inventarisierung und Stratifizierung von KI-Anwendungsfällen nach Risikostufe.
- Dokumentation der Einstellung „verbotener“ Praktiken gemäß dem Gesetz.
- Einrichtung von Testprotokollen und Vorlagen, einschließlich für adversarial testing.
- Abstimmung der unternehmensweiten KI-Governance mit dem National Institute of Standards and Technology AI Risk Management Framework.