Grok, Deepfakes und der Zusammenbruch der Unterscheidung zwischen Inhalt und Fähigkeit
Aktuelle regulatorische Reaktionen auf das große Sprachmodell (LLM) Grok in Bezug auf seine Nutzung zur Erstellung von Deepfakes zeigen etwas Interessanteres als nur „viele Technologieunternehmen verhalten sich schlecht“. Sie offenbaren eine Diskrepanz zwischen der Art und Weise, wie Plattformregulierungsrahmen entworfen wurden, und wie generative KI funktioniert, wenn sie von den Anbietern selbst in Plattformen integriert wird: ex-post-Inhaltsentfernungen und Benutzersanktionen sind nicht mehr ausreichend.
Französische Staatsanwälte haben kürzlich ein Ermittlungsverfahren eingeleitet, nachdem KI-generierte Inhalte verbreitet wurden, während die britische Ofcom Grok als ein System behandelt hat, das unter die ex-ante-Designpflichten des Online-Sicherheitsgesetzes fällt. Auch Regulierungsbehörden in Australien, Brasilien, Kanada, Japan, Indien und anderswo haben Druck auf Plattformen ausgeübt, indem sie bestehende sektorale Regeln angewandt haben. Diese Reaktionen deuten darauf hin, dass die effektive Regulierung von KI derzeit nicht aus umfassenden, KI-spezifischen Rahmenwerken resultiert, sondern aus der Anwendung bestehender sektoraler Regeln auf neue Fähigkeiten.
Das Architekturproblem, das die Inhaltsrichtlinie nicht lösen kann
Traditionelle Plattformgovernance basiert auf einer Trennung: Die Plattform bietet Fähigkeiten (Hosting, Suche, Kuratierung, Empfehlungen) und die Nutzer generieren Inhalte. Die Regulierung der Fähigkeiten legt Einschränkungen fest, wie z. B. Ausschlüsse von Trainingsdaten und Sicherheitsfunktionen, die definieren, was das System tun kann. Die Inhaltsregulierung besteht aus Regeln über Ausgaben, wie z. B. die Entfernung von Beiträgen, Kennzeichnung und Herabstufung. Dieses Governance-Modell geht davon aus, dass die Plattform ein Inhaltsvermittler ist, unabhängig davon, ob sie auf eine inhaltsneutrale Weise handelt oder nicht.
Als Grok in eine Plattform integriert wurde, wurde diese Unterscheidung aufgehoben. Mehrere Nachrichtenquellen berichteten, dass Grok nicht einvernehmliche, sexualisierte Deepfakes realer Personen, einschließlich Minderjähriger, generierte. Das Modell und die Plattform selbst hosten oder übertragen nicht nur schädliche Inhalte, die unabhängig von Nutzern erstellt werden; ihre Fähigkeit, diese Inhalte selbst zu generieren, ist die unmittelbare Ursache ihrer Existenz.
Wenn Grok realistische, nicht einvernehmliche gefälschte Bilder realer Frauen erzeugt, nachdem ein Benutzer dazu aufgefordert hat, verfehlt das Standard-Moderationshandbuch – Erkennung, Entfernung, Sanktionierung des Benutzers – den Punkt. Die Fähigkeit, mit trivialen Aufforderungen rechtswidrige Ausgaben zu erzeugen, ist ein relevanter Verletzungsrechtsverstoß, nicht nur das Fehlverhalten einzelner Benutzer. Sowohl der Inhalt als auch die Fähigkeit selbst müssen adressiert werden.
Die Unzulänglichkeit von Geoblocking bei Fähigkeitsproblemen
Die Reaktion der Plattform auf die Ausgaben von Grok – das Geoblocking bestimmter Aufforderungen in einigen Jurisdiktionen – ist interessant, da sie offensichtlich unzureichend ist. Wenn Schäden fähigkeitsgesteuert sind, erfordert eine angemessene Minderung Kontrollen auf der Ebene der Generierung selbst und nicht territoriale Filter, die nachträglich angewendet werden.
Diese Problematik ist breiter als Grok. Es geht darum, wie Technologie die territorialen Ansätze zur Inhaltsgovernance untergräbt. Wenn jeder schädlichen synthetischen Inhalt erzeugen kann, der jeden anderen darstellt, überall, verlieren die traditionellen Werkzeuge der gerichtlichen Durchsetzung ihre Wirksamkeit.
Regulatorische Zukunft
Die schnelle Mobilisierung der Regulierungsbehörden zur Adressierung von Groks Fähigkeit zeigt, was passiert, wenn etablierte Schäden wie nicht einvernehmliche intime Bilder und Materialien sexuellen Missbrauchs auf neue Produktionsmechanismen wie generative KI-Modelle ohne Sicherheitsvorkehrungen treffen. Die Geschwindigkeit ist anders als bei herkömmlicher KI-Regulierung und -Durchsetzung, da der Schaden nicht neu ist – nur die Produktionsmethode.
Die Lektion ist nicht, dass die KI-Regulierung schneller kommt als erwartet, sondern dass sie anders kommt als erwartet. Der Engpass ist der normative Konsens darüber, welche Schäden wichtig genug sind, um aggressiv reguliert zu werden.