Die Herausforderung der Regulierung in der Ära von Grok und Deepfakes

Grok, Deepfakes und der Zusammenbruch der Unterscheidung zwischen Inhalt und Fähigkeit

Aktuelle regulatorische Reaktionen auf das große Sprachmodell (LLM) Grok in Bezug auf seine Nutzung zur Erstellung von Deepfakes zeigen etwas Interessanteres als nur „viele Technologieunternehmen verhalten sich schlecht“. Sie offenbaren eine Diskrepanz zwischen der Art und Weise, wie Plattformregulierungsrahmen entworfen wurden, und wie generative KI funktioniert, wenn sie von den Anbietern selbst in Plattformen integriert wird: ex-post-Inhaltsentfernungen und Benutzersanktionen sind nicht mehr ausreichend.

Französische Staatsanwälte haben kürzlich ein Ermittlungsverfahren eingeleitet, nachdem KI-generierte Inhalte verbreitet wurden, während die britische Ofcom Grok als ein System behandelt hat, das unter die ex-ante-Designpflichten des Online-Sicherheitsgesetzes fällt. Auch Regulierungsbehörden in Australien, Brasilien, Kanada, Japan, Indien und anderswo haben Druck auf Plattformen ausgeübt, indem sie bestehende sektorale Regeln angewandt haben. Diese Reaktionen deuten darauf hin, dass die effektive Regulierung von KI derzeit nicht aus umfassenden, KI-spezifischen Rahmenwerken resultiert, sondern aus der Anwendung bestehender sektoraler Regeln auf neue Fähigkeiten.

Das Architekturproblem, das die Inhaltsrichtlinie nicht lösen kann

Traditionelle Plattformgovernance basiert auf einer Trennung: Die Plattform bietet Fähigkeiten (Hosting, Suche, Kuratierung, Empfehlungen) und die Nutzer generieren Inhalte. Die Regulierung der Fähigkeiten legt Einschränkungen fest, wie z. B. Ausschlüsse von Trainingsdaten und Sicherheitsfunktionen, die definieren, was das System tun kann. Die Inhaltsregulierung besteht aus Regeln über Ausgaben, wie z. B. die Entfernung von Beiträgen, Kennzeichnung und Herabstufung. Dieses Governance-Modell geht davon aus, dass die Plattform ein Inhaltsvermittler ist, unabhängig davon, ob sie auf eine inhaltsneutrale Weise handelt oder nicht.

Als Grok in eine Plattform integriert wurde, wurde diese Unterscheidung aufgehoben. Mehrere Nachrichtenquellen berichteten, dass Grok nicht einvernehmliche, sexualisierte Deepfakes realer Personen, einschließlich Minderjähriger, generierte. Das Modell und die Plattform selbst hosten oder übertragen nicht nur schädliche Inhalte, die unabhängig von Nutzern erstellt werden; ihre Fähigkeit, diese Inhalte selbst zu generieren, ist die unmittelbare Ursache ihrer Existenz.

Wenn Grok realistische, nicht einvernehmliche gefälschte Bilder realer Frauen erzeugt, nachdem ein Benutzer dazu aufgefordert hat, verfehlt das Standard-Moderationshandbuch – Erkennung, Entfernung, Sanktionierung des Benutzers – den Punkt. Die Fähigkeit, mit trivialen Aufforderungen rechtswidrige Ausgaben zu erzeugen, ist ein relevanter Verletzungsrechtsverstoß, nicht nur das Fehlverhalten einzelner Benutzer. Sowohl der Inhalt als auch die Fähigkeit selbst müssen adressiert werden.

Die Unzulänglichkeit von Geoblocking bei Fähigkeitsproblemen

Die Reaktion der Plattform auf die Ausgaben von Grok – das Geoblocking bestimmter Aufforderungen in einigen Jurisdiktionen – ist interessant, da sie offensichtlich unzureichend ist. Wenn Schäden fähigkeitsgesteuert sind, erfordert eine angemessene Minderung Kontrollen auf der Ebene der Generierung selbst und nicht territoriale Filter, die nachträglich angewendet werden.

Diese Problematik ist breiter als Grok. Es geht darum, wie Technologie die territorialen Ansätze zur Inhaltsgovernance untergräbt. Wenn jeder schädlichen synthetischen Inhalt erzeugen kann, der jeden anderen darstellt, überall, verlieren die traditionellen Werkzeuge der gerichtlichen Durchsetzung ihre Wirksamkeit.

Regulatorische Zukunft

Die schnelle Mobilisierung der Regulierungsbehörden zur Adressierung von Groks Fähigkeit zeigt, was passiert, wenn etablierte Schäden wie nicht einvernehmliche intime Bilder und Materialien sexuellen Missbrauchs auf neue Produktionsmechanismen wie generative KI-Modelle ohne Sicherheitsvorkehrungen treffen. Die Geschwindigkeit ist anders als bei herkömmlicher KI-Regulierung und -Durchsetzung, da der Schaden nicht neu ist – nur die Produktionsmethode.

Die Lektion ist nicht, dass die KI-Regulierung schneller kommt als erwartet, sondern dass sie anders kommt als erwartet. Der Engpass ist der normative Konsens darüber, welche Schäden wichtig genug sind, um aggressiv reguliert zu werden.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...