Eingeschränkte Befugnisse der FTC zur Vorabkontrolle von KI-Gesetzen

Die Befugnisse der FTC zur Vorabkontrolle von KI sind begrenzt

Kann die Trump-Administration staatliche Verbraucherschutzgesetze, die KI betreffen, vorab kontrollieren? Die Federal Trade Commission (FTC) wird es bald versuchen, doch die Befugnisse der Behörde zur Vorabkontrolle staatlicher Gesetze sind eingeschränkt.

Im vergangenen Dezember erließ der Präsident eine Exekutivverordnung mit dem Titel „Sicherstellung eines nationalen politischen Rahmens für künstliche Intelligenz“. Diese Anordnung weist den Vorsitzenden der FTC an, eine politische Erklärung zu veröffentlichen, die die Umstände erläutert, unter denen staatliche Gesetze, die Änderungen an den wahrheitsgemäßen Ergebnissen von KI-Modellen erfordern, durch das Verbot der FTC gegen betrügerische Handlungen oder Praktiken im Handel vorab kontrolliert werden.

Rechtslage und Definition von Täuschung

Der Abschnitt 5 des FTC-Gesetzes verbietet unfaire oder täuschende Handlungen oder Praktiken im Handel. Die Exekutive konzentriert sich auf Täuschung, definiert als eine falsche Darstellung oder Unterlassung, die einen Verbraucher, der in den gegebenen Umständen vernünftig handelt, zu seinem Nachteil irreführt. Zum Beispiel stellt falsche Werbung die Qualität oder Nützlichkeit eines Produkts falsch dar und täuscht die Verbraucher.

Die Exekutive behauptet, dass einige Bundesstaaten Gesetze erlassen haben, die verlangen, dass Unternehmen ideologische Vorurteile in KI-Modelle einbetten. Dies folgt einer früheren Anordnung, die sogenanntes „woke AI“ von der Bundesregierung verbietet – Modelle, die mit „sozialen Agenden“ ausgestattet sind, die die Qualität und Genauigkeit der Ausgaben verzerren. Folglich wird in der neuen Anordnung behauptet, dass es von Natur aus täuschend ist, wenn staatliche KI-Gesetze Unternehmen zwingen, ihre Modelle dazu zu bringen, über politisch aufgeladene Themen zu lügen oder irrezuführen.

Ironischerweise ist die Exekutive selbst täuschend: Es gibt derzeit keine solchen Gesetze. Beschwerden über woke KI spiegeln vielmehr Entscheidungen der KI-Unternehmen wider und nicht staatliche Gesetze. Der Erste Verfassungszusatz schützt solche Designentscheidungen, wenn sie unabhängig von der Regierung getroffen werden.

Hürden der Vorabkontrolle

Jede Vorabkontrolle muss mehrere Hürden überwinden. Die erste ist der Föderalismus. Das Prinzip der föderalen Vorabkontrolle ergibt sich aus der Supremacy Clause der US-Verfassung, die besagt, dass Bundesrecht „das oberste Recht des Landes“ ist. Folglich steht Bundesrecht über – das heißt kontrolliert – widersprüchliche staatliche Gesetze.

Die Bundesregierung kann staatliches Recht auf verschiedene Weise vorab kontrollieren. Die einfachste Möglichkeit besteht darin, dass ein Bundesgesetz oder eine Verordnung explizite Vorabkontrollsprache enthält. Die Bundesregierung kann auch implizit staatliches Recht vorab kontrollieren, indem sie ein Bundesgesetz verabschiedet, das ein ganzes Regelungsfeld besetzt, etwa die nukleare Sicherheit.

Das FTC-Gesetz tut weder das eine noch das andere: Abschnitt 5 preemptiert weder ausdrücklich staatliches Recht noch besetzt es das gesamte Feld des Verbraucherschutzrechts. Vielmehr hat jeder Bundesstaat seine eigenen Verbraucherschutzgesetze, und die FTC arbeitet häufig mit den Staaten bei der Durchsetzung zusammen.

Das lässt der FTC nur eine Möglichkeit: die Konfliktvorabkontrolle. Bundesrecht steht über staatlichem Recht, wenn es unmöglich ist, beiden zu entsprechen. Abschnitt 5 verbietet „täuschende Handlungen oder Praktiken im oder betreffend den Handel“. Theoretisch würde ein staatliches Gesetz, das Unternehmen dazu zwingt, Verbraucher zu täuschen, mit Abschnitt 5 in Konflikt stehen, da es unmöglich wäre, sich sowohl zurückzuhalten als auch an täuschenden Geschäftspraktiken zu beteiligen.

Rechtliche Komplexität und Fazit

Gerichte werden jedoch wahrscheinlich Abschnitt 5 nicht als Grundlage für Konfliktvorabkontrolle akzeptieren. Bei der Bewertung von Vorabkontrollansprüchen folgt der Oberste Gerichtshof einer „Vermutung gegen die Vorabkontrolle“, wonach Bundesrecht staatliches Recht nicht übersteigt, „es sei denn, dies war der klare und offensichtliche Zweck des Kongresses“. Abschnitt 5 hingegen „wurde absichtlich in allgemeinen Begriffen formuliert“ und bietet keine spezifische Vorschrift.

Um die staatliche Autorität über KI vorab zu kontrollieren, muss die FTC eine Regel erlassen und dabei sowohl das Administrative Procedure Act als auch ihre eigenen strengen Verfahren gemäß dem Magnuson-Moss Act einhalten. Diese Verfahren erfordern eine vorherige Ankündigung des Vorschlags zur Regelgebung, die jeweils mit angemessenen Möglichkeiten zur öffentlichen Stellungnahme einhergehen. Danach gibt die Behörde eine vorläufige regulatorische Analyse heraus, die zu einer endgültigen regulatorischen Analyse führt und wahrscheinlich mit Anhörungen zu umstrittenen Sachverhalten endet. Der Prozess könnte leicht mehrere Jahre in Anspruch nehmen.

Jede Regelung, die im Rahmen der Exekutive vorgenommen wird, müsste spezifizieren, wie staatliche KI-Gesetze mit Abschnitt 5 in Konflikt geraten könnten. Die Exekutive verweist nur auf ein Beispiel: Colorados Gesetz zur künstlichen Intelligenz, das noch nicht in Kraft getreten ist und dessen praktische Auswirkungen unklar sind.

Letztendlich ist die Fähigkeit der FTC, staatliche KI-Gesetze vorab zu kontrollieren, begrenzt und erfordert einen langen, komplexen Regelungsprozess. Eine politische Erklärung allein wird nicht ausreichen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...