TCAI Bill Guide: Utah’s HB 286, das AI Transparency Act
Utah ist bekannt als nationaler Führer im Umgang mit künstlicher Intelligenz. Im letzten Jahr hat die Staatsgesetzgebung Gesetze verabschiedet, die die Offenlegung von KI-Interaktionen erfordern, die Verwendung von KI-gesteuerten psychischen Gesundheits-Chatbots regulieren und Schutzmaßnahmen gegen KI-Deepfakes erweitern.
Inhalt des Gesetzes
HB 286, das Utah AI Transparency Act, richtet sich speziell an Entwickler von fortschrittlichen KI-Modellen, die die größten und leistungsstärksten sind. Es gilt nicht für kleinere Modelle oder für Universitäten, die fortschrittliche Modelle zu Forschungszwecken entwickeln oder verwenden.
Öffentlicher Sicherheitsplan für katastrophale Risiken
Das Gesetz verlangt von Entwicklern großer fortschrittlicher Modelle, einen öffentlichen Sicherheitsplan zu implementieren und zu veröffentlichen. Der Plan muss Folgendes umfassen:
- nationale Standards und Branchenbestimmungen;
- Schwellenwerte zur Identifizierung potenzieller katastrophaler Risiken definieren und bewerten;
- Maßnahmen zur Minderung potenzieller Risiken anwenden;
- Dritte zur Bewertung der Risiken und der Wirksamkeit der Maßnahmen einsetzen;
- den Plan regelmäßig überprüfen und aktualisieren;
- Praktiken zur Cybersicherheit implementieren;
- kritische sicherheitsrelevante Vorfälle identifizieren und darauf reagieren;
- interne Governance-Praktiken einführen, um die Einhaltung des Gesetzes sicherzustellen.
„Katastrophisches Risiko“ bedeutet ein Risiko, dass ein fortschrittliches Modell zur Schaffung einer chemischen, biologischen, radiologischen oder nuklearen Waffe beitragen kann; an einem Cyberangriff beteiligt ist; der Kontrolle des Entwicklers oder Nutzers entgleitet; oder in irgendeiner Weise gegen das Gesetz von Utah verstößt.
Kinderschutzplan
Das Gesetz verlangt von einem Entwickler eines fortschrittlichen Modells, einen Kinderschutzplan zu implementieren und zu veröffentlichen. Der Plan muss Folgendes beinhalten:
- nationale Standards und Branchenbestimmungen einbeziehen;
- potenzielle Risiken für die Sicherheit von Kindern bewerten;
- Maßnahmen zur Minderung potenzieller Risiken für die Sicherheit von Kindern ergreifen;
- Dritte zur Bewertung der Risiken für die Sicherheit von Kindern und der Wirksamkeit der Maßnahmen hinzuziehen;
- den Kinderschutzplan regelmäßig überprüfen und aktualisieren;
- Vorfälle zur Sicherheit von Kindern identifizieren und darauf reagieren;
- interne Governance-Praktiken einführen, um die Umsetzung dieser Protokolle sicherzustellen.
„Risiko für die Sicherheit von Kindern“ bedeutet ein Risiko, dass das Modell eines Entwicklers, wenn es als Teil eines Chatbots verwendet wird, Verhalten zeigt, das zu Tod oder körperlicher Verletzung eines Kindes führen könnte, einschließlich Selbstverletzung, oder das schwerwiegende emotionale Belastungen für ein Kind verursacht.
Transparenz
Nach dem Gesetz darf ein Entwickler eines großen fortschrittlichen Modells keine materiell falschen oder irreführenden Aussagen oder Unterlassungen über Risiken aus den Aktivitäten des Entwicklers, das Management oder die Einhaltung machen.
Erlaubte Schwärzungen
Ein Entwickler darf in den nach dem Gesetz erforderlichen öffentlichen Dokumenten Schwärzungen vornehmen, die zum Schutz von Geschäftsgeheimnissen, Cybersicherheit, öffentlicher Sicherheit, nationaler Sicherheit oder zur Einhaltung von Bundes- oder Landesgesetzen erforderlich sind. Der Entwickler muss die Schwärzung beschreiben und rechtfertigen und die Informationen fünf Jahre lang aufbewahren.
Meldung von Sicherheitsvorfällen
Das Büro für Politik zur künstlichen Intelligenz in Utah kann ein Verfahren einrichten, um Sicherheitsvorfälle zu melden und alternative Verfahren zur Einhaltung zu etablieren, falls gleichwertige oder strengere bundesstaatliche Meldeanforderungen bestehen. Ein Entwickler muss einen Sicherheitsvorfall innerhalb von 15 Tagen nach Entdeckung des Vorfalls an das Büro für Politik zur künstlichen Intelligenz melden. Ein kritischer Sicherheitsvorfall, der ein unmittelbar drohendes Risiko für Tod oder körperliche Verletzung darstellt, muss innerhalb von 24 Stunden an eine Strafverfolgungs- oder Sicherheitsbehörde gemeldet werden.
Ein Entwickler muss vierteljährlich einen Bericht an das Büro für Politik zur künstlichen Intelligenz einreichen, der Bewertungen der katastrophalen Risiken des Modells des Entwicklers zusammenfasst oder nach einem anderen Zeitplan, der mit dem Büro für Politik zur künstlichen Intelligenz vereinbart wurde. Diese Berichte werden als geschützte Aufzeichnungen klassifiziert.
Whistleblower-Schutz
Ein Entwickler eines fortschrittlichen Modells muss einen angemessenen internen Prozess für Mitarbeiter bereitstellen, um anonym Informationen über Bedrohungen für die öffentliche Gesundheit oder die Gesundheit/Sicherheit von Minderjährigen oder über Verstöße gegen das Gesetz zu melden. Ein Arbeitgeber darf keine nachteiligen Maßnahmen gegen einen Mitarbeiter ergreifen, der Informationen an das Büro für Politik zur künstlichen Intelligenz bereitstellen möchte. Arbeitgeber, die gegen diesen Abschnitt verstoßen, können mit Strafen belegt werden, die unter anderem Wiedereinstellung, das Doppelte der Rückzahlung, die Erstattung von Rechtskosten und Schadensersatz umfassen.
Durchsetzung
Das Büro des Staatsanwalts in Utah wird das Gesetz durch zivilrechtliche Maßnahmen durchsetzen. Ein Entwickler, der gegen das Gesetz verstößt, kann mit einer Geldstrafe von bis zu 1 Million Dollar für einen ersten Verstoß und bis zu 3 Millionen Dollar für jeden weiteren Verstoß belegt werden.
Inkrafttreten
Das Gesetz tritt am 6. Mai 2026 in Kraft.
Überblick der Sponsoren
Ein Auszug aus der Aussage eines Sponsors erklärt: „Dieses Gesetz zielt nicht darauf ab, KI zu verbieten. Es geht nicht darum, Innovation zu bestrafen. Es existiert, weil Technologie mächtig genug ist, um das Verhalten eines Kindes zu beeinflussen oder die Öffentlichkeit zu gefährden. Wir können nicht einfach wegsehen.“
Ein weiterer Zeuge erklärte: „Ich bin Vater. Deshalb bin ich heute hier. Ich mache mir Sorgen um meine Kinder und deren Zukunft in einer von amoralischen KI-Unternehmen dominierten Welt.“
Zusammenfassend lässt sich sagen, dass das Gesetz HB 286 wichtige Maßnahmen zur Gewährleistung der Sicherheit und Transparenz in der Entwicklung und Nutzung von fortschrittlichen KI-Modellen in Utah vorsieht.