Texas verabschiedet Gesetz zur verantwortungsvollen KI-Governance

Texas verabschiedet das Gesetz zur verantwortungsvollen Governance von Künstlicher Intelligenz

Das neu verabschiedete Gesetz, bekannt als Texas Responsible Artificial Intelligence Governance Act (TRAIGA), tritt am 1. Januar 2026 in Kraft und stellt neue Anforderungen an Unternehmen und staatliche Stellen, die Künstliche Intelligenz (KI) in verschiedenen Bereichen einsetzen.

Wichtige Punkte

  • Neue Vorschriften: Das Gesetz führt sowohl vertraute als auch neuartige Vorschriften für die Nutzung von KI ein.
  • Verbotene Verwendungen: TRAIGA verbietet die Entwicklung oder Bereitstellung von KI-Systemen mit der Absicht, menschliches Verhalten zu manipulieren oder gegen geschützte Klassen zu diskriminieren.
  • Haftung: Verstöße gegen TRAIGA können hohe finanzielle Strafen nach sich ziehen.

Überblick

TRAIGA verpflichtet Unternehmen und staatliche Stellen, die Künstliche Intelligenz für Biometrie, Gesundheitswesen, Manipulation menschlichen Verhaltens, soziale Bewertung, Diskriminierung und explizite Inhalte einsetzen, zur Einhaltung neuer Vorschriften. Einige der Bestimmungen ähneln Gesetzen, die kürzlich in anderen Bundesstaaten wie Utah, Colorado und Kalifornien verabschiedet wurden, während andere einen neuartigen Ansatz für KI-bezogene Probleme darstellen.

Wesentliche Bestimmungen

  • Einschränkung des biometrischen Gesetzes: TRAIGA führt wichtige Ausnahmen zum bestehenden Gesetz über die Erfassung und Nutzung biometrischer Daten (CUBI) ein. Dies umfasst Ausnahmen für die Entwicklung von KI-Systemen, die nicht zur eindeutigen Identifizierung von Personen verwendet werden.
  • Verbot bestimmter KI-Anwendungen: TRAIGA untersagt die Entwicklung von KI-Systemen, die:
    • Absichtlich menschliches Verhalten manipulieren, um Selbstschaden oder kriminelles Verhalten zu fördern.
    • Gegen geschützte Klassen diskriminieren.
    • Mit der Absicht, visuelle Materialien über sexuellen Missbrauch von Kindern zu produzieren oder zu verbreiten.
    • Die Rechte von Individuen gemäß der Verfassung der Vereinigten Staaten einschränken.
  • Offenlegungspflichten im Gesundheitswesen: TRAIGA verlangt von Dienstleistern im Gesundheitswesen, die Verwendung von KI-Systemen klar und sichtbar offenzulegen.
  • Regulierung von KI durch staatliche Stellen: Das Gesetz führt Anforderungen für die Nutzung von KI durch staatliche Stellen ein, einschließlich der Offenlegung gegenüber Verbrauchern, wenn diese mit einem KI-System interagieren.
  • Regulatorische Sandbox: TRAIGA schafft einen Rahmen für eine regulatorische Sandbox, die es Unternehmen ermöglicht, innovative KI-Systeme innerhalb des Bundesstaates zu testen.

Durchsetzungsbefugnisse

TRAIGA sieht kein privates Klagerecht vor. Stattdessen hat der Generalstaatsanwalt von Texas die ausschließliche Durchsetzungsbefugnis. Verstöße gegen das Gesetz können mit Geldstrafen zwischen 10.000 und 200.000 US-Dollar pro Verstoß geahndet werden.

Vorbereitung auf TRAIGA

In den sechs Monaten bis zum Inkrafttreten von TRAIGA sollten Unternehmen prüfen, ob sie Systeme entwickelt oder bereitgestellt haben, die unter den Geltungsbereich von TRAIGA fallen. Angesichts der zunehmenden Aktivitäten des Generalstaatsanwalts im Bereich Datenschutz und der Notwendigkeit, rechtliche Überprüfungen zur Einhaltung des Gesetzes durchzuführen, ist ein rechtzeitiges Handeln erforderlich.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...