Bundesgesetz für Künstliche Intelligenz: Ein einheitlicher Regelrahmen für Amerika

Blackburn stellt 300-seitigen KI-Plan vor, um ein einheitliches Bundesregelwerk zu schaffen

Der Entwurf des Senats für die nationale Gesetzgebung zur künstlichen Intelligenz (KI), der am Mittwoch vorgestellt wurde, soll staatliche Gesetze außer Kraft setzen und sich auf Vorschriften konzentrieren, die die „4 Cs“ – Kinder, Kreatoren, Konservative und Gemeinschaften – schützen.

Das von einer Senatorin angeführte Maßnahme, die als TRUMP AMERICA AI Act bezeichnet wird, umfasst nahezu 300 Seiten.

Der Vorschlag folgt einem Dekret des Präsidenten, das staatliche KI-Gesetzgebungen außer Kraft setzte und einen einheitlichen KI-Rahmen forderte, um ein Flickwerk von Vorschriften zu vermeiden, das Innovationen behindern könnte.

Wichtige Ressourcen für KI

Der Vorschlag formalisiert zwei zentrale KI-bezogene Bundesressourcen, die kürzlich in Gesprächen im Kongress behandelt wurden. Das Zentrum für KI-Standards und Innovation (CAISI) am National Institute of Standards and Technology (NIST) würde kodifiziert, und eine formelle Governance- und Finanzierungsstruktur für das National Artificial Intelligence Research Resource (NAIRR) Pilotprojekt der National Science Foundation (NSF) würde eingerichtet.

Schutzmaßnahmen für Kinder

Der Vorschlag schreibt vor, dass Online- und Social-Media-Plattformen Werkzeuge und Schutzmaßnahmen implementieren, um Nutzer unter 17 Jahren zu schützen. Plattformen müssten sicherere Designpraktiken anwenden, Datenschutz- und Elternkontrollwerkzeuge hinzufügen, Forschungen über Kinder und Jugendliche einschränken sowie mehr Transparenz und Wahlmöglichkeiten über algorithmusgesteuerten Inhalt bieten.

Der Vorschlag verlangt eine Altersverifizierung durch die Verwendung eines von der Regierung ausgestellten Ausweises für minderjährige Chatbot-Nutzer. Bots müssten offenlegen, dass sie keine Menschen oder lizenzierten Fachleute sind und alle 30 Minuten Nutzungserinnerungen ausgeben. Unternehmen dürfen keine Chatbots gestalten, die sexuelle Interaktionen mit Minderjährigen fördern oder Selbstmord, Selbstverletzung oder Gewalt propagieren. Bei Nichteinhaltung könnten Unternehmen mit Geldstrafen von bis zu 100.000 $ belegt werden.

Schutz für Kreatoren

Urheberrechtsinhaber hätten ein neues rechtliches Instrument, das Transparenz darüber erfordert, wie KI-Modelle trainiert werden. Kreatoren, die vermuten, dass ihre Arbeiten zur Schulung eines generativen KI-Systems verwendet wurden, könnten eine gerichtliche Vorladung anfordern, die Entwickler zur Offenlegung der Trainingsdaten verpflichtet. Bei Nichteinhaltung würde der Vorschlag eine rechtliche Vermutung für eine Verletzung schaffen.

Der Vorschlag weist Bundesbehörden an, Standards und Werkzeuge zu entwickeln, die KI-generierte oder manipulierte Inhalte identifizieren, kennzeichnen und verfolgen. Bestimmte Inhalte, wie die Arbeiten von Journalisten oder Kreativen, müssten Informationen tragen, die zeigen, ob der Inhalt authentisch oder KI-generiert ist.

Bekämpfung von KI-Bias

Um dem „konsistenten Muster der Voreingenommenheit gegen konservative Persönlichkeiten“ entgegenzuwirken, schlägt der Vorschlag vor, dass Entwickler von hochriskanten KI-Systemen jährliche unabhängige Drittanbieter-Audits durchführen, um politische Zugehörigkeit oder Sichtweisen zu überprüfen. Der Vorschlag würde auch regeln, wie Bundesbehörden KI erwerben und nutzen können.

Behörden dürfen nur Modelle beschaffen, die „unvoreingenommene KI-Prinzipien“ aufweisen, die als Wahrhaftigkeit, historische und wissenschaftliche Genauigkeit, Anerkennung von Unsicherheit und ideologische Neutralität definiert sind.

KI-Sicherheit

Der TRUMP AMERICA AI Act würde eine grundlegende „Sorgfaltspflicht“ für Entwickler von KI-Chatbots etablieren, die sie dazu verpflichtet, angemessene Schritte zu unternehmen, um vorhersehbare und mit der Funktionsweise des Systems verbundene Schäden zu verhindern und zu mindern.

Ein zusätzliches risikobasiertes regulatorisches Rahmenwerk für KI-Systeme würde geschaffen, das bestimmte Entwickler dazu verpflichtet, an Evaluierungsprogrammen teilzunehmen und fortschrittliche Systeme zur Überprüfung an das Energieministerium zu übermitteln.

Sowohl Entwickler als auch Betreiber von KI würden rechtlich für Schäden, die durch ihre Systeme verursacht werden, verantwortlich gemacht.

Um Arbeitnehmer zu schützen, müssten Unternehmen und relevante Bundesbehörden vierteljährliche Berichte über die Auswirkungen von KI auf Arbeitsplätze, einschließlich Entlassungen oder Arbeitsplatzverlagerungen, an das Arbeitsministerium übermitteln. Das Arbeitsministerium müsste diese Daten dann öffentlich zugänglich machen.

Um steigende Energiekosten im Zusammenhang mit KI-Datenzentren anzugehen, schlägt der Vorschlag Schutzmaßnahmen vor, die sicherstellen, dass Verbraucher nicht unfair durch die Kosten der KI-Infrastruktur belastet werden.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...