Gesetzentwurf zum Verbot von Spielzeugen mit Chatbots wirft Fragen zur Regulierung auf

Neues Moratorium für Spielzeug mit Chatbots wirft Fragen zur Chatbot-Regulierung auf

Im Zuge einer Reihe von Klagen gegen KI-Unternehmen bezüglich der möglichen Beteiligung ihrer Plattformen an der Förderung von Suizid und anderen kriminellen Verhaltensweisen hat ein Senator ein Gesetz vorgeschlagen, das den Verkauf, Austausch und Besitz von Spielzeugen mit Begleit-Chatbots in Kalifornien bis zum 1. Januar 2031 verbietet. Ein „Spielzeug“ wird definiert als ein Produkt, das vom Hersteller für Kinder im Alter von 12 Jahren oder jünger zum Spielen bestimmt ist.

Regulierung von Begleit-Chatbots

Diese Entwicklung wirft die Frage auf, ob ein Moratorium für ein Produkt oder eine Dienstleistung, die missbraucht werden kann, eine effektive Strategie zur Regulierung darstellt. Kalifornien und New York haben bereits Gesetze zur Regulierung von Begleit-Chatbots verabschiedet.

Das kalifornische Gesetz SB 243, das am 1. Januar 2026 in Kraft trat, erfordert:

  • Eine eindeutige Benachrichtigung, dass der Nutzer mit einem Bot und nicht mit einem Menschen interagiert.
  • Die Interaktion mit dem Begleit-Chatbot darf nur stattfinden, wenn ein Protokoll zur Verhinderung von suizidalen Gedanken und selbstverletzendem Verhalten vorhanden ist. Hierzu gehört unter anderem eine Benachrichtigung, die den Nutzer an einen Krisendienstleister verweist.
  • Für Minderjährige wird zudem alle drei Stunden daran erinnert, eine Pause einzulegen und dass der Begleiter kein Mensch ist.
  • Es müssen angemessene Maßnahmen ergriffen werden, um zu verhindern, dass der Begleit-Chatbot visuelles Material mit sexuell explizitem Inhalt produziert oder direkt aussagt, dass der Minderjährige sich sexuell explizit verhalten soll.

Ab 2027 wird zudem eine jährliche Berichtspflicht an das kalifornische Büro für Suizidprävention (OSP) eingeführt.

Ähnliche Regelungen in New York

Das AI Companion Law in New York enthält ähnliche Anforderungen, die darauf abzielen, suizidale Gedanken oder selbstverletzendes Verhalten, das von einem Nutzer gegenüber dem KI-Begleiter geäußert wird, zu erkennen und darauf zu reagieren. Auch hier wird alle drei Stunden an den Nutzer erinnert, eine Pause einzulegen, wobei diese Regelung nicht nur für Minderjährige gilt.

Während das Gesetz in New York durch den Generalstaatsanwalt durchgesetzt werden kann, erlaubt das kalifornische Gesetz eine private Klage.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...