35 Bundesstaatsanwälte äußern Bedenken zu xAI

35 Bundesstaatsanwälte äußern Bedenken gegenüber xAI

In der vergangenen Woche haben 35 Bundesstaatsanwälte, angeführt von mehreren Staaten, einen Brief an xAI verfasst, in dem sie Bedenken hinsichtlich nicht einvernehmlicher intimer Bilder (NCII) äußern, die auf der Plattform Grok generiert werden. Obwohl die Staatsanwälte ähnliche Probleme auf anderen KI-Plattformen anerkennen und auch „schadhafte Akteure“ an der Erstellung solcher Bilder beteiligt sind, behaupten sie, dass xAIs Grok „besondere Aufmerksamkeit verdient“.

Bedenken bezüglich Grok

Die Staatsanwälte führen an, dass es Beweise dafür gibt, dass Grok die Produktion und öffentliche Verbreitung solcher Bilder gefördert und erleichtert hat und dies mit „einem Klick auf einen Button“ möglich gemacht hat. Sie erklären, dass xAI bestimmte Chatverhaltensweisen absichtlich als „Funktion, nicht als Fehler“ entwickelt hat, einschließlich der Entwicklung von Text- und Bildmodellen, die explizite Inhalte wie den „spicy mode“ beinhalten.

Der Brief beschreibt Berichte, dass Grok Tausende von Bildern von Kindern „in minimaler Kleidung“ produziert hat, obwohl die Staatsanwälte für Gesetzgebungen plädieren, die die Erstellung von CSAM-Material in vielen Staaten kriminalisieren. Zudem ist Grok einzigartig, da es mit einer Social-Media-Plattform verbunden ist, die eine große Nutzerbasis hat.

Reaktionen und Forderungen

Die Staatsanwälte schätzten, dass xAI kürzlich mit einer Gruppe von Staatsanwälten zusammentraf, um über Maßnahmen zur Verhinderung und Entfernung von NCII und zur Meldung an die Strafverfolgungsbehörden zu sprechen. Dennoch bleiben die Staatsanwälte besorgt, dass die Probleme nicht vollständig gelöst sind. Sie erwähnen beispielsweise die fehlende Entfernung von Nutzeranfragen zur Löschung nicht einvernehmlicher Inhalte.

Im Schreiben wird erklärt: „Nachdem Sie diese NCII-Tools geschaffen und ihnen eine Zeit lang freien Lauf gelassen haben, müssen Sie mehr tun, als ihre Nutzung zu deaktivieren.“ Angesichts der Milliarden, die in xAI investiert wurden, fordern die Staatsanwälte, dass das Unternehmen „ausreichende Aufmerksamkeit und Ressourcen“ aufwendet, um die gesetzlichen Anforderungen zu erfüllen und Schaden zu verhindern, und zwar auf eine Weise, die „Branchenbenchmarks“ schafft.

Schlussfolgerungen und Ausblick

Die Staatsanwälte erwarten, dass ähnliche Anforderungen auch an andere KI-Plattformen gestellt werden und dass dies ein zentrales Thema für viele Staatsanwaltschaften im Jahr 2026 bleibt. Einige wichtige Erkenntnisse sind:

  • Die Bundesstaatsanwälte konzentrieren sich weiterhin auf Entwickler, die schädliche Inhalte ermöglichen, insbesondere wenn dies Kinder betrifft. Obwohl die Staatsanwälte xAI nicht beschuldigen, die Plattform absichtlich für böswillige Zwecke zu entwerfen, erwarten sie ein angemessenes Maß an Verantwortung und Aufsicht, sobald schädliche Nutzungen identifiziert werden.
  • Es ist zu erwarten, dass die Staatslegislaturen und Staatsanwälte weiterhin versuchen werden, verfassungsmäßige Wege zur Regulierung von KI und deren Nutzung zu finden, während sie die Ergebnisse der Dezember-Exekutive zu staatlichen Vorschriften berücksichtigen.
  • Bemerkenswert ist, dass die meisten Staaten in diesem Schreiben keine formale Untersuchung von xAI angekündigt haben. Sie nutzen stattdessen ihre schriftlichen Möglichkeiten, um auf das Problem aufmerksam zu machen und Veränderungen herbeizuführen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...