Texas setzt auf eigene AI-Regulierung

Texas verfolgt einen unabhängigen Weg bei der Regulierung von KI

Das von der texanischen Legislative verabschiedete Texas Responsible Artificial Intelligence Governance Act (TRAIGA) steht nun zur Unterschrift von Gouverneur Greg Abbott aus. Das Gesetz soll die Entwicklung und Nutzung von Künstlicher Intelligenz (KI) sowohl im öffentlichen als auch im privaten Sektor regulieren und könnte am 1. Januar 2026 in Kraft treten, sofern es von Abbott unterzeichnet wird.

Umfang und Bedeutung von TRAIGA

TRAIGA stellt den umfassendsten Versuch Texas dar, eine Aufsicht über KI-Technologien zu etablieren. Dies geschieht vor dem Hintergrund nationaler Debatten über die Rolle des maschinellen Lernens im Alltag. Die Verabschiedung des Gesetzes kommt zeitgleich mit einer Welle von staatlichen Bestrebungen in Colorado, Utah und Kalifornien, bestimmte Anwendungen von KI zu begrenzen, während gleichzeitig auf Bundesebene über präventive Maßnahmen nachgedacht wird, die den Bundesstaaten diese Autorität entziehen könnten.

Politische Hintergründe

Die Verabschiedung des Gesetzes durch die republikanisch geprägte texanische Legislative stellt eine Abkehr von der Positionierung der Trump-Administration dar, die sich als alleinige Instanz für die Regulierung von KI sieht. Dies deutet darauf hin, dass es zwischen den Ideologien auf Bundes- und Landesebene erhebliche Unterschiede gibt.

Inhalt des Gesetzes

Ursprünglich als umfassendes risikobasiertes Rahmenwerk konzipiert, das teilweise am KI-Gesetz der Europäischen Union orientiert war, spiegelt die endgültige Version von TRAIGA Monate politischer Verhandlungen und Lobbyarbeit wider, die den Umfang des Gesetzes erheblich eingegrenzt haben. Das nun vorliegende Gesetz konzentriert sich darauf, bestimmte ausdrücklich schädliche Anwendungen von KI zu verbieten und bestehende Bürgerrechts-Schutzmaßnahmen zu verstärken.

TRAIGA führt bemerkenswerte Verpflichtungen für Entwickler, Betreiber und staatliche Nutzer von KI-Technologien in Texas ein. Es wird ausdrücklich verboten, KI-Systeme zu entwickeln oder einzusetzen, die absichtlich gegen Personen aufgrund geschützter Merkmale diskriminieren.

Regelungen zur biometrischen Datensammlung

Ein zentrales Element von TRAIGA ist die Aktualisierung des Biometric Identifier Act von Texas. Das Gesetz besagt, dass biometrische Daten, wie Fingerabdrücke und Gesichtsgeometrie, nicht ohne Zustimmung der betroffenen Personen aus öffentlich zugänglichen Medien gesammelt werden dürfen.

Regulierung und Durchsetzung

Die Durchsetzung von TRAIGA obliegt ausschließlich dem Generalstaatsanwalt von Texas, der befugt ist, zivilrechtliche Maßnahmen gegen Verstöße einzuleiten. Die Strafen für Verstöße können bis zu 200.000 US-Dollar betragen, während für anhaltende Nichteinhaltungen tägliche Strafen von bis zu 40.000 US-Dollar verhängt werden können.

Die Rolle der Texas Artificial Intelligence Council

Die Aufsicht über die Einhaltung von TRAIGA wird dem neu gegründeten Texas Artificial Intelligence Council anvertraut, der unter dem Department of Information Resources operiert. Obwohl die Befugnisse des Rates beratend sind, wird er eine entscheidende Rolle bei der Schulung von Staats- und Kommunalbeamten in der angemessenen Nutzung von KI spielen.

Schlussfolgerung

In seiner endgültigen Form ist TRAIGA weder ein umfassendes KI-Regierungsrahmenwerk noch eine laissez-faire-Autorisierung unregulierter Entwicklungen. Vielmehr stellt es einen sorgfältig ausgehandelten Versuch dar, unmittelbare Risiken anzugehen und gleichzeitig Raum für Wachstum und zukünftige politische Entwicklungen zu lassen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...