Internationale Regulierungsbehörden ziehen die Grenze bei KI-generierten expliziten Bildern
Innerhalb einer einzigen Woche haben Regulierungsbehörden auf drei Kontinenten Maßnahmen gegen KI-Plattformen ergriffen, die in der Lage sind, explizite Bilder zu generieren. Die Medienregulierungsbehörde des Vereinigten Königreichs leitete eine formelle Untersuchung ein. Malaysia und Indonesien blockierten den Zugang zu einem KI-Bildgenerierungstool vollständig – die ersten Länder, die dies taten. Drei US-Senatoren forderten Apple und Google auf, eine KI-Anwendung aus ihren App-Stores zu entfernen. Die Botschaft ist klar: KI-generierte sexuell explizite Inhalte – insbesondere solche, die Minderjährige betreffen – haben sich zu einem universellen Durchsetzungsanlass entwickelt.
Eine rote Linie entsteht
Die Durchsetzungsmaßnahmen teilen einen gemeinsamen Nenner: KI-Systeme, die nicht einvernehmliche intime Bilder oder Inhalte, die Minderjährige darstellen, generieren können. Im Gegensatz zu den Debatten über KI-Voreingenommenheit oder algorithmische Transparenz ist dies kein Bereich, in dem die Regulierungsbehörden zögerlich vorgehen. Sie handeln schnell und mit ungewöhnlicher internationaler Einheitlichkeit.
Dieses Muster spiegelt sich in der nationalen Entwicklung wider. Das Responsible AI Governance Act in Texas, das am 1. Januar 2026 in Kraft trat, verbietet ausdrücklich KI-Systeme, die mit der Absicht entwickelt wurden, kinderpornografisches Material oder explizite Deepfake-Inhalte mit Minderjährigen zu erstellen. Das Vereinigte Königreich bewegt sich darauf zu, „Nudifizierungs-Apps“ zu kriminalisieren. Malaysia und Indonesien warteten nicht auf neue Gesetze – sie blockierten den Zugang einfach unter bestehenden Befugnissen.
Was das für Anbieter bedeutet
Organisationen, die KI-Bildgenerierungsfunktionen bereitstellen – sei es für kundenorientierte Produkte oder interne Werkzeuge – sollten jetzt ihre Risiken bewerten. Die Welle der Durchsetzung schafft mehrere konkrete Überlegungen:
- Inhaltsrichtlinienüberprüfung: Wenn Ihre Organisation KI-Bildgenerierung verwendet oder anbietet, müssen die akzeptablen Nutzungsrichtlinien möglicherweise ausdrücklich die Generierung nicht einvernehmlicher intimer Bilder und jeglicher Inhalte, die Minderjährige in sexuellen Kontexten darstellen, verbieten. Richtlinien sind effektiver, wenn sie technisch durchgesetzt werden, nicht nur vertraglich.
- Alterverifizierung: Mehrere Durchsetzungsmaßnahmen zitieren unzureichende Altersüberprüfungen als Schwachstelle. Organisationen sollten bewerten, ob ihre aktuellen Verifizierungsmechanismen ausreichend sind, insbesondere für kundenorientierte Anwendungen.
- Ausgabeüberwachung: Sich ausschließlich auf Eingabefilterung zu verlassen, ist unzureichend. Die Untersuchung des Vereinigten Königreichs nannte spezifisch Bedenken hinsichtlich der Ausgaben, nicht nur der Eingabeaufforderungen. Organisationen sollten überlegen, ob sie Einblick in das haben, was ihre KI-Tools tatsächlich generieren.
- Anbieter-Due-Diligence: Für Organisationen, die Drittanbieter-KI-Bildgenerierungs-APIs oder -Plattformen verwenden, sind die Inhaltsrichtlinien des Anbieters nun eine wesentliche Überlegung. Die Vertragsbedingungen müssen möglicherweise die Einhaltung der Inhaltsrichtlinien, Prüfungsrechte und Entschädigungen für die regulatorische Durchsetzung ansprechen.
Erwartete Fortsetzung des Trends
Die internationale Koordination ist bemerkenswert. Die Transparenzanforderungen des EU-KI-Gesetzes für KI-generierte Inhalte treten im August 2026 in Kraft, einschließlich der Verpflichtungen zur Wasserzeichen- und Kennzeichnung. Das Online-Sicherheitsgesetz des Vereinigten Königreichs verpflichtet Plattformen bereits zur Verantwortung für nutzergenerierte Inhalte. In den USA treiben die Bundesstaaten weiterhin KI-spezifische Gesetze voran, wobei die Transparenzanforderungen in Kalifornien bereits in Kraft sind.
Für interne Rechtsberater ist die praktische Erkenntnis, dass KI-generierte explizite Bilder – insbesondere solche, die Minderjährige betreffen – kein Graubereich sind. Es ist eine Durchsetzungspriorität in allen Jurisdiktionen. Organisationen, die KI-Bildgenerierungstools bereitstellen, sollten nicht warten, bis sie eine Vorladung oder eine Sperranordnung erhalten, um ihre Kontrollen zu bewerten.