AGs fordern xAI zu mehr Maßnahmen gegen Grok Deepfakes auf
Eine parteiübergreifende Koalition von 35 Generalstaatsanwälten hat einen Brief an xAI gesendet, in dem das Unternehmen aufgefordert wird, zusätzliche Schritte zu unternehmen, um zu verhindern, dass sein KI-Chatbot Grok nicht einvernehmliche intime Bilder (NCII), einschließlich Inhalten mit Kindern, erzeugt und verbreitet.
Inhalt des Briefes
In dem Brief wies die Koalition darauf hin, dass Grok verwendet wurde, um reale Personen zu „nackt zu machen“ und die resultierenden Inhalte zu verstärken. Zudem wurde behauptet, dass die Produktentscheidungen von xAI (einschließlich eines „spicy mode“) und das Marketing zu dem Problem beigetragen haben.
Die AGs anerkannten zwar die kürzlichen Bemühungen von xAI zur Minderung dieser Probleme, forderten jedoch spezifische Informationen darüber, wie xAI Folgendes erreichen will:
- Verhindern, dass Grok NCII produziert,
- bestehende NCII-Inhalte entfernen,
- verantwortliche Nutzer sperren und, wo angebracht, melden,
- den Nutzern von X einfache Möglichkeiten geben, Grok daran zu hindern, auf ihre Inhalte zu reagieren oder sie zu bearbeiten, und
- sicherstellen, dass Sicherheitsvorkehrungen schädliche Ausgaben auf der Plattform einschränken.
Aktuelle Entwicklungen
Es wurde berichtet, dass ein Generalstaatsanwalt in Arizona kürzlich eine Untersuchung gegen xAI eingeleitet hat, während ein Generalstaatsanwalt in Kalifornien dem Unternehmen eine Unterlassungsaufforderung über ähnliche Vorwürfe ausgestellt hat.
Schlussfolgerung
Die Forderungen der AGs verdeutlichen die wachsende Besorgnis über die Verwendung von KI-Technologie zur Erstellung und Verbreitung von nicht einvernehmlichen Inhalten. Die Entwicklung wirksamer Maßnahmen zur Bekämpfung solcher Herausforderungen wird entscheidend sein, um den Missbrauch von KI zu verhindern und den Schutz der Nutzer zu gewährleisten.