Texanisches Gesetz zur KI-Governance: Ein Schritt in die Zukunft

Texas AI-Gesetzgebung unterzeichnet

Am 22. Juni 2025 hat der Gouverneur von Texas, Greg Abbott, das Texas Responsible AI Governance Act (TRAIGA) in Kraft gesetzt. Dies geschah trotz der laufenden Debatten im US-Senat über Bestimmungen im Versöhnungsgesetz, das ein Moratorium für die Gesetzgebung von Bundesstaaten im Bereich der künstlichen Intelligenz (KI) festlegt.

Die Unterzeichnung von HB 149 ist eine klare Erklärung, dass Bundesstaaten weiterhin Gesetze erlassen werden, wenn es um den Schutz von Verbrauchern und den Einsatz von KI geht, es sei denn, dies wird durch ein endgültig verabschiedetes Versöhnungsgesetz vorweggenommen, das sich derzeit im Senat befindet.

Erklärung der Gesetzgebung

Nach Angaben des Gouverneursbüros zeigt Gov. Abbott mit der Verabschiedung des Texas Responsible AI Governance Act „Texas-Style-Führung“ in der Regulierung von künstlicher Intelligenz. In einer Zeit, in der andere argumentieren, dass KI eine außergewöhnliche Technologie ist, die ohne Regulierungen auskommen sollte, bekräftigt Texas die Notwendigkeit, sowohl Innovation als auch Sicherheit der Bürger zu gewährleisten.

Ziele des TRAIGA

Das Gesetz hat mehrere zentrale Ziele:

  • Die verantwortungsvolle Entwicklung und Nutzung von KI-Systemen zu fördern und voranzutreiben;
  • Individuen und Gruppen vor bekannten und vernünftigerweise vorhersehbaren Risiken im Zusammenhang mit KI-Systemen zu schützen;
  • Transparenz über Risiken in der Entwicklung, Bereitstellung und Nutzung von KI-Systemen zu gewährleisten;
  • Vernünftige Benachrichtigung über die Nutzung oder die beabsichtigte Nutzung von KI-Systemen durch staatliche Stellen zu geben.

TRAIGA gilt für Entwickler und Anbieter von KI-Systemen, einschließlich staatlicher Einrichtungen. Ein Entwickler und Anbieter wird dabei weit gefasst als jemand definiert, der „ein künstliches Intelligenzsystem in Texas entwickelt oder bereitstellt“. Es fordert staatliche Stellen auf, klare und auffällige Hinweise an Verbraucher zu geben, bevor oder während der Interaktion, dass der Verbraucher mit KI interagiert, was über einen Hyperlink erfolgen kann.

Verbote und Einschränkungen

Das Gesetz verbietet es staatlichen Stellen, KI zur Zuweisung eines sozialen Scores zu verwenden, einschließlich der Bewertung von Individuen basierend auf persönlichen Merkmalen des sozialen Verhaltens. Außerdem ist es untersagt, Verbraucher durch biometrische Daten ohne Zustimmung des Individuums eindeutig zu identifizieren.

TRAIGA verbietet es zudem jeder Person, ein KI-System zu entwickeln oder bereitzustellen, das „absichtlich darauf abzielt, eine Person zu ermutigen oder anzustiften, sich selbst zu schädigen, jemand anderem Schaden zuzufügen oder kriminelle Aktivitäten zu begehen.“

Ferner wird das Entwickeln oder Bereitstellen eines KI-Systems mit dem „alleinigen Ziel“, die Rechte eines Individuums, die durch die Verfassung der Vereinigten Staaten garantiert werden, zu verletzen, oder „unrechtmäßig gegen eine geschützte Klasse zu diskriminieren“ untersagt.

Durchsetzung und Strafen

Der Generalstaatsanwalt von Texas hat die ausschließliche Zuständigkeit für die Durchsetzung von TRAIGA und kann zivilrechtliche Strafen verhängen, abhängig von der Absicht und dem Versäumnis, Verstöße zu beheben. Diese Strafen können zwischen 10.000 und 200.000 Dollar liegen, wobei fortgesetzte Verstöße mit Strafen von nicht weniger als 2.000 Dollar und nicht mehr als 40.000 Dollar für jeden Tag, an dem der Verstoß andauert, belegt werden können.

Das Gesetz tritt am 1. Januar 2026 in Kraft, daher ist es an der Zeit, zu prüfen, ob es Anwendung auf Sie findet und welche Maßnahmen zur Einhaltung erforderlich sind.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...