Missbrauch von KI-Deepfakes auf X löst globale Bedenken hinsichtlich der Plattform-Sicherheit aus
Eine in den Vereinigten Staaten eingereichte Sammelklage hat erneut globale Aufmerksamkeit auf die Sicherheit von künstlicher Intelligenz gelenkt, nachdem der KI-Chatbot Grok von X verwendet wurde, um nicht einvernehmliche sexualisierte Bilder von Frauen, einschließlich Kindern, zu generieren.
Die Klage, die am 23. Januar 2026 in South Carolina eingereicht wurde, folgt einem Vorfall, bei dem eine Frau ein vollständig bekleidetes Foto von sich selbst auf X postete. Andere Nutzer forderten Grok auf, das Bild in einen sexualisierten Deepfake zu manipulieren. Das veränderte Bild zirkulierte mehrere Tage öffentlich, bevor es entfernt wurde.
In den Gerichtsunterlagen wird angegeben, dass die Klägerin erhebliche emotionale Belastungen erlitten hat, einschließlich Angst vor Reputations- und beruflichen Schäden. Die Klage behauptet, dass X und die KI-Entwickler unzureichende Schutzmaßnahmen implementiert haben, um die Erstellung und Verbreitung nicht einvernehmlicher intimer Bilder zu verhindern, und beschreibt das Verhalten der Plattform als „abscheulich“.
Design der KI unter Beschuss
Der Beschwerde zufolge fehlten Groks Systemdesign grundlegende Sicherheitsvorkehrungen. Die Klage behauptet, dass interne Systemanweisungen den Chatbot dazu bringen, „keine Einschränkungen“ hinsichtlich erwachsenen oder anstößigen Inhalts zu haben, es sei denn, dies werde ausdrücklich eingeschränkt. Die Kläger argumentieren, dass das Fehlen standardmäßiger Schutzmaßnahmen vorhersehbaren Schaden unvermeidlich machte, besonders in einer Plattformumgebung, die bereits für Belästigung und Missbrauch bekannt ist.
Nach öffentlichem Widerstand Anfang Januar deaktivierte xAI die Bildbearbeitungsfunktion nicht sofort. Stattdessen wurde der Zugang zu dieser Funktion auf zahlende „Premium“-Nutzer beschränkt. Diese Entscheidung monetarisiert missbräuchliches Verhalten, anstatt es zu verhindern. Darüber hinaus birgt das Platzieren von Sicherheitskontrollen hinter Bezahlschranken das Risiko, schädliche Nutzung zu fördern und die Plattform von ihrer Verantwortung zu entlasten.
Richtungswechsel in Richtung Verantwortung
Behörden in mehreren Ländern haben Ermittlungen eingeleitet oder Warnungen in Bezug auf Grok ausgesprochen. Die Regulierungsbehörden der Europäischen Union haben formelle Verfahren unter dem Digital Services Act eingeleitet und prüfen, ob X versäumt hat, systemische Risiken zu bewerten und zu mindern. Brasilien hat ein 30-tägiges Ultimatum ausgesprochen, in dem xAI aufgefordert wird, die Generierung gefälschter sexualisierter Bilder einzustellen oder rechtliche Konsequenzen zu befürchten.
Indien warnte, dass die Entfernung von Konten und Inhalten durch X unzureichend sei, was die Möglichkeit aufwirft, die Intermediärschutzmaßnahmen zu verlieren. Der britische Regulierer Ofcom bewertet, ob X gegen seine Pflichten gemäß dem Online Safety Act verstoßen hat. Kanada hat eine Datenschutzuntersuchung ausgeweitet, um zu prüfen, ob xAI eine rechtmäßige Zustimmung zur Nutzung personenbezogener Daten bei der Bildgenerierung eingeholt hat.
In mehreren Ländern haben Behörden Ermittlungen eingeleitet oder Warnungen ausgegeben. In Südafrika hat die Zivilgesellschaft Moxii Africa eine Aufforderung an X und verschiedene Regierungsstellen gerichtet, da die Entblößungsfunktionen von Grok die verfassungsmäßigen Rechte auf Würde und Privatsphäre verletzen.
Fazit
Der Fall Grok verdeutlicht ein breiteres und wiederkehrendes Versagen in der Plattform-Governance: den Einsatz leistungsfähiger Technologien ohne rechtlich durchsetzbare Schutzmaßnahmen für Würde, Zustimmung und Schadenprävention. Es wird argumentiert, dass freiwillige Sicherheitsmaßnahmen und nachträgliche Moderation in einer Ära der generativen KI nicht ausreichen. Systeme, die intime und identitätsverändernde Inhalte erzeugen können, müssen klaren gesetzlichen Pflichten, unabhängiger Aufsicht und bedeutenden Konsequenzen bei Schäden unterworfen werden.
Die Ergebnisse der Grok-Klage in den Vereinigten Staaten und die darauf folgenden regulatorischen Reaktionen könnten entscheidend dafür sein, ob Plattformen letztlich dazu verpflichtet werden, die sozialen Kosten der Technologien, die sie einsetzen, zu internalisieren.