35 Bundesstaatsanwälte äußern Bedenken gegenüber xAI
In der vergangenen Woche haben 35 Bundesstaatsanwälte, angeführt von mehreren Staaten, einen Brief an xAI verfasst, in dem sie Bedenken hinsichtlich nicht einvernehmlicher intimer Bilder (NCII) äußern, die auf der Plattform Grok generiert werden. Obwohl die Staatsanwälte ähnliche Probleme auf anderen KI-Plattformen anerkennen und auch „schadhafte Akteure“ an der Erstellung solcher Bilder beteiligt sind, behaupten sie, dass xAIs Grok „besondere Aufmerksamkeit verdient“.
Bedenken bezüglich Grok
Die Staatsanwälte führen an, dass es Beweise dafür gibt, dass Grok die Produktion und öffentliche Verbreitung solcher Bilder gefördert und erleichtert hat und dies mit „einem Klick auf einen Button“ möglich gemacht hat. Sie erklären, dass xAI bestimmte Chatverhaltensweisen absichtlich als „Funktion, nicht als Fehler“ entwickelt hat, einschließlich der Entwicklung von Text- und Bildmodellen, die explizite Inhalte wie den „spicy mode“ beinhalten.
Der Brief beschreibt Berichte, dass Grok Tausende von Bildern von Kindern „in minimaler Kleidung“ produziert hat, obwohl die Staatsanwälte für Gesetzgebungen plädieren, die die Erstellung von CSAM-Material in vielen Staaten kriminalisieren. Zudem ist Grok einzigartig, da es mit einer Social-Media-Plattform verbunden ist, die eine große Nutzerbasis hat.
Reaktionen und Forderungen
Die Staatsanwälte schätzten, dass xAI kürzlich mit einer Gruppe von Staatsanwälten zusammentraf, um über Maßnahmen zur Verhinderung und Entfernung von NCII und zur Meldung an die Strafverfolgungsbehörden zu sprechen. Dennoch bleiben die Staatsanwälte besorgt, dass die Probleme nicht vollständig gelöst sind. Sie erwähnen beispielsweise die fehlende Entfernung von Nutzeranfragen zur Löschung nicht einvernehmlicher Inhalte.
Im Schreiben wird erklärt: „Nachdem Sie diese NCII-Tools geschaffen und ihnen eine Zeit lang freien Lauf gelassen haben, müssen Sie mehr tun, als ihre Nutzung zu deaktivieren.“ Angesichts der Milliarden, die in xAI investiert wurden, fordern die Staatsanwälte, dass das Unternehmen „ausreichende Aufmerksamkeit und Ressourcen“ aufwendet, um die gesetzlichen Anforderungen zu erfüllen und Schaden zu verhindern, und zwar auf eine Weise, die „Branchenbenchmarks“ schafft.
Schlussfolgerungen und Ausblick
Die Staatsanwälte erwarten, dass ähnliche Anforderungen auch an andere KI-Plattformen gestellt werden und dass dies ein zentrales Thema für viele Staatsanwaltschaften im Jahr 2026 bleibt. Einige wichtige Erkenntnisse sind:
- Die Bundesstaatsanwälte konzentrieren sich weiterhin auf Entwickler, die schädliche Inhalte ermöglichen, insbesondere wenn dies Kinder betrifft. Obwohl die Staatsanwälte xAI nicht beschuldigen, die Plattform absichtlich für böswillige Zwecke zu entwerfen, erwarten sie ein angemessenes Maß an Verantwortung und Aufsicht, sobald schädliche Nutzungen identifiziert werden.
- Es ist zu erwarten, dass die Staatslegislaturen und Staatsanwälte weiterhin versuchen werden, verfassungsmäßige Wege zur Regulierung von KI und deren Nutzung zu finden, während sie die Ergebnisse der Dezember-Exekutive zu staatlichen Vorschriften berücksichtigen.
- Bemerkenswert ist, dass die meisten Staaten in diesem Schreiben keine formale Untersuchung von xAI angekündigt haben. Sie nutzen stattdessen ihre schriftlichen Möglichkeiten, um auf das Problem aufmerksam zu machen und Veränderungen herbeizuführen.