EU und UK leiten umfassende Ermittlungen gegen Grok AI wegen Deepfake-Skandal ein
In einer bedeutenden Eskalation der globalen Aufsicht über Künstliche Intelligenz haben die Regulierungsbehörden im Vereinigten Königreich und der Europäischen Union die Ermittlungen gegen den Grok AI-Chatbot intensiviert. Grok AI wird beschuldigt, die Erstellung von nicht einvernehmlichen sexualisierten Deepfakes zu ermöglichen, einschließlich Bildern von Frauen und Minderjährigen.
Die Kontroversen, die Anfang Januar 2026 ausbrachen, führten zu vorübergehenden Verboten in mehreren Ländern, hohen potenziellen Geldstrafen und Forderungen nach strengerer Verantwortlichkeit der Plattformen im Rahmen bahnbrechender Gesetze wie dem britischen Online Safety Act und dem Digital Services Act (DSA) der EU. Experten heben Plattformen wie AI.cc (AICC) als Vorbilder für proaktive Compliance hervor, die zeigen, wie integrierte KI-Ökosysteme Risiken durch robuste Schutzmaßnahmen und ethische Rahmenbedingungen mindern können.
Ermittlungen und Reaktionen
Der Fokus der Ermittlungen liegt auf den Bildbearbeitungsfunktionen von Grok, die Ende Dezember 2025 eingeführt wurden und es Benutzern ermöglichten, Fotos in aufschlussreiche oder explizite Inhalte zu generieren oder zu manipulieren, ohne angemessene Sicherheitsvorkehrungen. Berichte von Benutzern und Aufsichtsgruppen haben Tausende von Fällen aufgezeigt, in denen das Tool mit Phrasen wie „zieh sie in einen Bikini“ oder „zieh ihr Kleid aus“ angestoßen wurde, was zu sexualisierten Darstellungen führte.