Regulierung von KI-Nutzung: Ein alternativer risikobasierter Ansatz

Regulieren Sie nicht KI-Modelle. Regulieren Sie die Nutzung von KI

Manchmal scheint es, als wären die Bemühungen, KI zu regulieren und einzuschränken, überall und jederzeit präsent. China erließ 2021 die ersten spezifischen Vorschriften für KI. Der Fokus liegt klar auf Anbietern und der Inhaltspolitik, die durch Plattformkontrolle und Aufzeichnungsanforderungen durchgesetzt werden.

In Europa datiert der EU-KI-Gesetzesentwurf auf 2024, aber die Europäische Kommission schlägt bereits Aktualisierungen und Vereinfachungen vor. Indien beauftragte seine technischen Berater, ein Governance-System für KI zu erstellen, das im November 2025 veröffentlicht wurde. In den Vereinigten Staaten erlassen die Bundesstaaten eigene KI-Vorschriften, während die Bundesregierung 2025 versuchte, staatliche Maßnahmen zu verhindern und die Auflagen zu lockern.

Dies führt zu einer entscheidenden Frage für Ingenieure und politische Entscheidungsträger: Was kann die USA tatsächlich durchsetzen, um realen Schaden zu reduzieren? Meine Antwort: Regulieren Sie die Nutzung von KI, nicht die zugrunde liegenden Modelle.

Warum modellzentrierte Regulierung versagt

Vorschläge zur Lizenzierung von „Grenz“-Trainingsläufen, zur Einschränkung offener Gewichte oder zur Erforderung einer Genehmigung vor der Veröffentlichung von Modellen, wie das Transparenzgesetz für Grenz-KI in Kalifornien, versprechen Kontrolle, liefern aber nur Theater. Modellgewichte und -codes sind digitale Artefakte; einmal veröffentlicht, sei es durch ein Labor, einen Leak oder einen ausländischen Wettbewerber, werden sie nahezu kostenlos repliziert. Man kann Gewichte nicht „unveröffentlichen“, Forschung nicht eingrenzen oder die Destillation in kleinere Modelle verhindern. Der Versuch, Artefakte einzuschränken, führt zu zwei schlechten Ergebnissen: Konforme Firmen ertrinken in Papierkram, während rücksichtslose Akteure um die Regeln herum agieren – offshore, im Untergrund oder beides.

In den USA kollidiert die Lizenzierung von Modellveröffentlichungen wahrscheinlich auch mit dem Recht auf freie Meinungsäußerung. Bundesgerichte haben Software-Quellcode als geschützte Ausdrucksform behandelt, sodass jedes System, das die Veröffentlichung von KI-Modellen verhindert, anfällig für rechtliche Herausforderungen ist.

„Nichts tun“ ist auch keine Option. Ohne Leitplanken werden wir weiterhin Deepfake-Betrügereien, automatisierten Betrug und Massenüberzeugungskampagnen erleben, bis eine Katastrophe als Schlagzeile einen stumpfen Ansatz auslöst, der auf Optik und nicht auf Ergebnissen optimiert ist.

Eine praktische Alternative: Regulieren Sie die Nutzung, proportional zum Risiko

Ein nutzungsbasiertes Regime klassifiziert Einsätze nach Risiko und skaliert die Verpflichtungen entsprechend. Hier ist ein umsetzbarer Rahmen, der sich auf die Durchsetzung an den Punkten konzentriert, an denen Systeme tatsächlich mit Menschen interagieren:

  • Basislinie: Allgemeine Interaktion mit Verbrauchern (offene Chats, kreatives Schreiben, Lernhilfe, informelle Produktivität).
    Regulatorische Einhaltung: Klare KI-Offenlegung zum Zeitpunkt der Interaktion, veröffentlichte akzeptable Nutzungspolitiken, technische Leitplanken, die eine Eskalation in höhere Risikostufen verhindern, und ein Mechanismus für Benutzer, problematische Ausgaben zu kennzeichnen.
  • Niedrigrisiko-Hilfe: Entwurf, Zusammenfassung, grundlegende Produktivität.
    Regulatorische Einhaltung: Einfache Offenlegung, grundlegende Datenhygiene.
  • Mittelrisiko-Entscheidungsunterstützung, die Einzelpersonen betrifft: Einstellungstriaje, Leistungsüberprüfung, Kreditqualifikation.
    Regulatorische Einhaltung: Dokumentierte Risikoabschätzung, sinnvolle menschliche Aufsicht und ein „KI-Materialienverzeichnis“, das mindestens die Modellherkunft, wichtige Bewertungen und Minderung umfasst.
  • Hochwirksame Anwendungen in sicherheitskritischen Kontexten: Klinische Entscheidungsunterstützung, kritische Infrastrukturoperationen.
    Regulatorische Einhaltung: Strenge Tests vor der Bereitstellung, die an die spezifische Nutzung gebunden sind, kontinuierliche Überwachung, Vorfallberichterstattung und, wenn erforderlich, Genehmigungen, die an die validierte Leistung gebunden sind.
  • Gefährliche Dual-Use-Funktionen: Werkzeuge zur Erstellung biometrischer Sprachmuster zur Umgehung von Authentifizierungen.
    Regulatorische Einhaltung: Eingeschränkt auf lizenzierte Einrichtungen und verifizierte Betreiber; Fähigkeiten verbieten, deren Hauptzweck illegal ist.

KI-gestützte Systeme werden real, wenn sie mit Benutzern, Geld, Infrastruktur und Institutionen verbunden sind, und dort sollten Regulierungsbehörden die Durchsetzung konzentrieren: an den Verteilungspunkten (App-Stores und Unternehmensmarktplätze), beim Zugang zu Fähigkeiten (Cloud- und KI-Plattformen), bei der Monetarisierung (Zahlungssysteme und Werbenetzwerke) und beim Risikoübergang (Versicherer und Vertragspartner).

Für hochriskante Anwendungen müssen wir die Identitätsbindung für Betreiber, die Zugangskontrolle entsprechend der Risikostufe und eine manipulationssichere Protokollierung für Audits und Nachuntersuchungen verlangen, gepaart mit Datenschutz. Wir müssen Beweise für die Behauptungen der Anbieter verlangen, Vorfallreaktionspläne aufrechterhalten, materielle Fehler melden und menschliche Rückfalloptionen bereitstellen. Wenn die Nutzung von KI zu Schäden führt, sollten Unternehmen nachweisen müssen, dass sie ihre Arbeit gemacht haben und für Schäden haftbar gemacht werden.

Dieser Ansatz schafft Marktdynamiken, die die Einhaltung beschleunigen. Wenn entscheidende Geschäftsvorgänge wie Beschaffung, Zugang zu Cloud-Diensten und Versicherungen davon abhängen, dass Sie nachweisen, dass Sie die Regeln befolgen, werden KI-Modellentwickler nach Spezifikationen arbeiten, die Käufer überprüfen können. Das erhöht die Sicherheitsstandards für alle Akteure der Branche, einschließlich Startups, ohne wenigen großen, lizenzierten Unternehmen einen Vorteil zu verschaffen.

Dieser Rahmen stimmt in zwei wichtigen Punkten mit dem EU-KI-Gesetz überein. Erstens zentriert er das Risiko an der Stelle, an der es Auswirkungen hat: Die „hochriskanten“ Kategorien des Gesetzes umfassen Beschäftigung, Bildung, Zugang zu wesentlichen Dienstleistungen und kritische Infrastruktur, mit Lebenszyklusverpflichtungen und Beschwerderechten. Zweitens erkennt er eine besondere Behandlung für allgemein fähige Systeme (GPAI) an, ohne die Illusion zu haben, dass die Kontrolle der Veröffentlichung eine Sicherheitsstrategie ist. Mein Vorschlag für die USA unterscheidet sich in drei wesentlichen Punkten:

  1. Erstens muss die USA für verfassungsrechtliche Haltbarkeit entworfen werden. Gerichte haben Quellcode als geschützte Rede behandelt, und ein Regime, das eine Genehmigung zur Veröffentlichung von Gewichten oder zur Schulung einer Klasse von Modellen erfordert, beginnt, einer vorherigen Einschränkung zu ähneln. Ein nutzungsbasiertes Regime von Regeln, das regelt, was KI-Betreiber in sensiblen Umgebungen tun können und unter welchen Bedingungen, passt besser zur First Amendment-Doktrin der USA als sprachbasierte Lizenzierungsschemata.
  2. Zweitens kann die EU darauf vertrauen, dass Plattformen sich an die Vorsichtsregeln anpassen, die sie für ihren einheitlichen Binnenmarkt aufstellt. Die USA sollten akzeptieren, dass Modelle weltweit existieren werden, sowohl offen als auch geschlossen, und sich darauf konzentrieren, wo KI umsetzbar wird: App-Stores, Unternehmensplattformen, Cloud-Anbieter, Unternehmensidentitätsebenen, Zahlungssysteme, Versicherer und Torwächter in regulierten Sektoren. Das sind durchsetzbare Punkte, an denen Identität, Protokollierung, Zugangskontrolle und nachträgliche Verantwortung gefordert werden können, ohne zu behaupten, wir könnten Software „einengen“. Sie umfassen auch die vielen spezialisierten US-Behörden, die möglicherweise nicht in der Lage sind, umfassende Regeln zu schreiben, die das gesamte KI-Ökosystem betreffen. Stattdessen sollten die USA die Engpässe bei KI-Diensten expliziter regulieren als Europa, um die unterschiedliche Struktur ihrer Regierung und öffentlichen Verwaltung zu berücksichtigen.
  3. Drittens sollten die USA eine explizite Kategorie für „Dual-Use-Gefahren“ hinzufügen. Das EU-KI-Gesetz ist in erster Linie ein Regime für Grundrechte und Produktsicherheit. Die USA haben jedoch auch eine nationale Sicherheitsrealität: bestimmte Fähigkeiten sind gefährlich, weil sie Schaden skalieren (Biowissenschaftssicherheit, Cyberangriffe, Massenbetrug). Ein kohärenter US-Rahmen sollte diese Kategorie benennen und direkt regulieren, anstatt zu versuchen, sie in generische Lizenzierungsregeln für „Grenzmodelle“ zu integrieren.

China hat ein gestuftes Regime für öffentlich zugängliche KI aufgebaut. Die Regeln zur „tiefen Synthese“ erfordern die auffällige Kennzeichnung synthetischer Medien und legen Pflichten für Anbieter und Plattformen fest. Die vorläufigen Maßnahmen für generative KI fügen Registrierung und Governance-Pflichten für öffentlich angebotene Dienste hinzu. Die Durchsetzung nutzt Plattformkontrollen und Algorithmen-Archivierungssysteme.

Die USA sollten die staatlich gelenkte Kontrolle von KI-Ansichten oder Informationsmanagement nicht kopieren; sie ist mit den Werten der USA unvereinbar und würde einer verfassungsrechtlichen Prüfung nicht standhalten. Die Lizenzierung der Modellveröffentlichung ist in der Praxis brüchig und wahrscheinlich eine verfassungswidrige Form der Zensur in den USA.

Aber wir können zwei praktische Ideen aus China übernehmen. Erstens sollten wir vertrauenswürdige Herkunft und Rückverfolgbarkeit für synthetische Medien sicherstellen. Dies umfasst die obligatorische Kennzeichnung und forensische Herkunftswerkzeuge. Sie geben legitimen Schöpfern und Plattformen eine zuverlässige Möglichkeit, Ursprung und Integrität nachzuweisen. Wenn es schnell ist, Authentizität im großen Maßstab zu überprüfen, verlieren Angreifer den Vorteil von billigen Kopien oder Deepfakes, und Verteidiger gewinnen Zeit für Erkennung, Triagierung und Reaktion. Zweitens sollten wir von Betreibern verlangen, ihre Methoden und Risikokontrollen für öffentlich zugängliche, hochriskante Dienste bei den Regulierungsbehörden einzureichen, wie wir es für andere sicherheitskritische Projekte tun. Dies sollte angemessene Due-Process- und Transparenzvorkehrungen für liberale Demokratien sowie klare Verantwortlichkeiten für Sicherheitsmaßnahmen, Datenschutz und den Umgang mit Vorfällen umfassen, insbesondere für Systeme, die darauf ausgelegt sind, Emotionen zu manipulieren oder Abhängigkeiten aufzubauen.

Wir können die Entwicklung von KI nicht sinnvoll regulieren in einer Welt, in der Artefakte in nahezu Echtzeit kopiert werden und Forschung grenzenlos fließt. Aber wir können ungetestete Systeme aus Krankenhäusern, Zahlungssystemen und kritischer Infrastruktur fernhalten, indem wir die Nutzung und nicht die Modelle regulieren; an den Engpässen durchsetzen; und Verpflichtungen anwenden, die mit dem Risiko skalieren.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...