Blackburn stellt 300-seitigen KI-Plan vor, um ein einheitliches Bundesregelwerk zu schaffen
Der Entwurf des Senats für die nationale Gesetzgebung zur künstlichen Intelligenz (KI), der am Mittwoch vorgestellt wurde, soll staatliche Gesetze außer Kraft setzen und sich auf Vorschriften konzentrieren, die die „4 Cs“ – Kinder, Kreatoren, Konservative und Gemeinschaften – schützen.
Das von einer Senatorin angeführte Maßnahme, die als TRUMP AMERICA AI Act bezeichnet wird, umfasst nahezu 300 Seiten.
Der Vorschlag folgt einem Dekret des Präsidenten, das staatliche KI-Gesetzgebungen außer Kraft setzte und einen einheitlichen KI-Rahmen forderte, um ein Flickwerk von Vorschriften zu vermeiden, das Innovationen behindern könnte.
Wichtige Ressourcen für KI
Der Vorschlag formalisiert zwei zentrale KI-bezogene Bundesressourcen, die kürzlich in Gesprächen im Kongress behandelt wurden. Das Zentrum für KI-Standards und Innovation (CAISI) am National Institute of Standards and Technology (NIST) würde kodifiziert, und eine formelle Governance- und Finanzierungsstruktur für das National Artificial Intelligence Research Resource (NAIRR) Pilotprojekt der National Science Foundation (NSF) würde eingerichtet.
Schutzmaßnahmen für Kinder
Der Vorschlag schreibt vor, dass Online- und Social-Media-Plattformen Werkzeuge und Schutzmaßnahmen implementieren, um Nutzer unter 17 Jahren zu schützen. Plattformen müssten sicherere Designpraktiken anwenden, Datenschutz- und Elternkontrollwerkzeuge hinzufügen, Forschungen über Kinder und Jugendliche einschränken sowie mehr Transparenz und Wahlmöglichkeiten über algorithmusgesteuerten Inhalt bieten.
Der Vorschlag verlangt eine Altersverifizierung durch die Verwendung eines von der Regierung ausgestellten Ausweises für minderjährige Chatbot-Nutzer. Bots müssten offenlegen, dass sie keine Menschen oder lizenzierten Fachleute sind und alle 30 Minuten Nutzungserinnerungen ausgeben. Unternehmen dürfen keine Chatbots gestalten, die sexuelle Interaktionen mit Minderjährigen fördern oder Selbstmord, Selbstverletzung oder Gewalt propagieren. Bei Nichteinhaltung könnten Unternehmen mit Geldstrafen von bis zu 100.000 $ belegt werden.
Schutz für Kreatoren
Urheberrechtsinhaber hätten ein neues rechtliches Instrument, das Transparenz darüber erfordert, wie KI-Modelle trainiert werden. Kreatoren, die vermuten, dass ihre Arbeiten zur Schulung eines generativen KI-Systems verwendet wurden, könnten eine gerichtliche Vorladung anfordern, die Entwickler zur Offenlegung der Trainingsdaten verpflichtet. Bei Nichteinhaltung würde der Vorschlag eine rechtliche Vermutung für eine Verletzung schaffen.
Der Vorschlag weist Bundesbehörden an, Standards und Werkzeuge zu entwickeln, die KI-generierte oder manipulierte Inhalte identifizieren, kennzeichnen und verfolgen. Bestimmte Inhalte, wie die Arbeiten von Journalisten oder Kreativen, müssten Informationen tragen, die zeigen, ob der Inhalt authentisch oder KI-generiert ist.
Bekämpfung von KI-Bias
Um dem „konsistenten Muster der Voreingenommenheit gegen konservative Persönlichkeiten“ entgegenzuwirken, schlägt der Vorschlag vor, dass Entwickler von hochriskanten KI-Systemen jährliche unabhängige Drittanbieter-Audits durchführen, um politische Zugehörigkeit oder Sichtweisen zu überprüfen. Der Vorschlag würde auch regeln, wie Bundesbehörden KI erwerben und nutzen können.
Behörden dürfen nur Modelle beschaffen, die „unvoreingenommene KI-Prinzipien“ aufweisen, die als Wahrhaftigkeit, historische und wissenschaftliche Genauigkeit, Anerkennung von Unsicherheit und ideologische Neutralität definiert sind.
KI-Sicherheit
Der TRUMP AMERICA AI Act würde eine grundlegende „Sorgfaltspflicht“ für Entwickler von KI-Chatbots etablieren, die sie dazu verpflichtet, angemessene Schritte zu unternehmen, um vorhersehbare und mit der Funktionsweise des Systems verbundene Schäden zu verhindern und zu mindern.
Ein zusätzliches risikobasiertes regulatorisches Rahmenwerk für KI-Systeme würde geschaffen, das bestimmte Entwickler dazu verpflichtet, an Evaluierungsprogrammen teilzunehmen und fortschrittliche Systeme zur Überprüfung an das Energieministerium zu übermitteln.
Sowohl Entwickler als auch Betreiber von KI würden rechtlich für Schäden, die durch ihre Systeme verursacht werden, verantwortlich gemacht.
Um Arbeitnehmer zu schützen, müssten Unternehmen und relevante Bundesbehörden vierteljährliche Berichte über die Auswirkungen von KI auf Arbeitsplätze, einschließlich Entlassungen oder Arbeitsplatzverlagerungen, an das Arbeitsministerium übermitteln. Das Arbeitsministerium müsste diese Daten dann öffentlich zugänglich machen.
Um steigende Energiekosten im Zusammenhang mit KI-Datenzentren anzugehen, schlägt der Vorschlag Schutzmaßnahmen vor, die sicherstellen, dass Verbraucher nicht unfair durch die Kosten der KI-Infrastruktur belastet werden.