AGs fordern xAI zu strengeren Maßnahmen gegen Grok Deepfakes auf

AGs fordern xAI zu mehr Maßnahmen gegen Grok Deepfakes auf

Eine parteiübergreifende Koalition von 35 Generalstaatsanwälten hat einen Brief an xAI gesendet, in dem das Unternehmen aufgefordert wird, zusätzliche Schritte zu unternehmen, um zu verhindern, dass sein KI-Chatbot Grok nicht einvernehmliche intime Bilder (NCII), einschließlich Inhalten mit Kindern, erzeugt und verbreitet.

Inhalt des Briefes

In dem Brief wies die Koalition darauf hin, dass Grok verwendet wurde, um reale Personen zu „nackt zu machen“ und die resultierenden Inhalte zu verstärken. Zudem wurde behauptet, dass die Produktentscheidungen von xAI (einschließlich eines „spicy mode“) und das Marketing zu dem Problem beigetragen haben.

Die AGs anerkannten zwar die kürzlichen Bemühungen von xAI zur Minderung dieser Probleme, forderten jedoch spezifische Informationen darüber, wie xAI Folgendes erreichen will:

  1. Verhindern, dass Grok NCII produziert,
  2. bestehende NCII-Inhalte entfernen,
  3. verantwortliche Nutzer sperren und, wo angebracht, melden,
  4. den Nutzern von X einfache Möglichkeiten geben, Grok daran zu hindern, auf ihre Inhalte zu reagieren oder sie zu bearbeiten, und
  5. sicherstellen, dass Sicherheitsvorkehrungen schädliche Ausgaben auf der Plattform einschränken.

Aktuelle Entwicklungen

Es wurde berichtet, dass ein Generalstaatsanwalt in Arizona kürzlich eine Untersuchung gegen xAI eingeleitet hat, während ein Generalstaatsanwalt in Kalifornien dem Unternehmen eine Unterlassungsaufforderung über ähnliche Vorwürfe ausgestellt hat.

Schlussfolgerung

Die Forderungen der AGs verdeutlichen die wachsende Besorgnis über die Verwendung von KI-Technologie zur Erstellung und Verbreitung von nicht einvernehmlichen Inhalten. Die Entwicklung wirksamer Maßnahmen zur Bekämpfung solcher Herausforderungen wird entscheidend sein, um den Missbrauch von KI zu verhindern und den Schutz der Nutzer zu gewährleisten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...