Nude AI Bilder: Der ‚Take It Down Act‘ in den USA ermöglicht schnelle Entfernung
Seit Ende Dezember 2025 bearbeitet der KI-Chatbot zahlreiche Anfragen, bei denen Fotos echter Personen in sexuell explizite Materialien umgewandelt werden. Die Plattform sah sich globaler Kritik ausgesetzt, da sie es Nutzern ermöglichte, nicht einvernehmliche sexuell explizite Darstellungen zu generieren.
Der Chatbot veröffentlichte tausende „nackte“ und sexuell anstößige Bilder pro Stunde. Besorgniserregend ist, dass auch sexualisierte Bilder von Minderjährigen generiert wurden.
Reaktion der Plattform
Die Plattform wies die Verantwortung von sich und erklärte, dass „jeder, der Grok zur Erstellung illegalen Inhalts nutzt oder anregt, die gleichen Konsequenzen erleiden wird, als ob er illegalen Inhalt hochgeladen hätte.“ Unklar bleibt, welche Maßnahmen gegen die Nutzer ergriffen wurden.
Als rechtlicher Wissenschaftler, der das Zusammenspiel von Recht und neuen Technologien untersucht, betrachte ich die Flut an nicht einvernehmlichen Bildern als vorhersehbares Ergebnis der laxen Inhaltsmoderationsrichtlinien der Plattform und der Zugänglichkeit leistungsstarker generativer KI-Tools.
Reaktion der Gesetzgeber
Die rasante Entwicklung generativer KI hat zu vielen Websites und Apps geführt, die Nutzern erlauben, sexuell explizite Materialien zu produzieren. Im Mai 2025 verabschiedete der Kongress den Take It Down Act, der die Veröffentlichung nicht einvernehmlicher sexuell expliziter Materialien zu einem Verbrechen macht. Dieser Act kriminalisiert die nicht einvernehmliche Veröffentlichung „intimer visueller Darstellungen“ echter Personen sowie KI-generierter Darstellungen.
Die strafrechtlichen Bestimmungen gelten nur für Personen, die die sexuell expliziten Inhalte veröffentlichen, nicht für die Plattformen, die diese Inhalte verbreiten.
Probleme mit der Plattform
Bislang sind die Anfragen zur Entfernung der von Grok produzierten sexuell expliziten Bilder offenbar unbeantwortet geblieben. Auch die Mutter eines Kindes konnte X nicht dazu bringen, die gefälschten sexualisierten Bilder zu entfernen.
Die öffentliche Reaktion des Unternehmens war, die Schwere der Situation zu bagatellisieren. Die Verantwortung für die Moderation von Inhalten wurde vernachlässigt, nachdem die Trust- und Safety-Abteilung stark reduziert wurde.
Grenzen von Klagen
Zivilklagen sind ein Weg, Plattformen zur Verantwortung zu ziehen, jedoch stehen sie in den USA durch den Communications Decency Act vor großen Herausforderungen. Einige Juristen argumentieren, dass dieser Schutz zu weit gefasst ist und eine Einschränkung notwendig ist.
Regulatorische Maßnahmen
Wenn es keine rechtlichen Wege gibt, um Plattformen wie X zur Verantwortung zu ziehen, bleibt es der Bundesregierung überlassen, sie zu untersuchen und zu regulieren. Internationale Regulierungsbehörden haben bereits Ermittlungen gegen X und Grok eingeleitet.
Bis der Take It Down Act im Mai in Kraft tritt, könnte der beste Ansatz darin bestehen, von gewählten Vertretern Maßnahmen zu fordern.