Kalifornisches Gesetz zielt auf riskante KI-Chatbots ab

Neue Gesetzgebung in Kalifornien zur Regulierung von KI-„Begleit“-Chatbots

Ein Vorschlag, der derzeit durch die kalifornische Legislative voranschreitet, zielt darauf ab, die schädlichen Auswirkungen von „Begleit“-Chatbots, die mit künstlicher Intelligenz betrieben werden und darauf ausgelegt sind, menschenähnliche Beziehungen zu simulieren und emotionale Unterstützung zu bieten, zu adressieren. Diese Chatbots werden häufig an anfällige Nutzer wie Kinder und Personen in emotionalen Notlagen vermarktet.

Einführung des Gesetzes

Der Gesetzesentwurf, der von Senator Steve Padilla eingeführt wurde, würde Unternehmen, die Begleit-Chatbots betreiben, dazu verpflichten, suchtfördernde Tricks und unvorhersehbare Belohnungen zu vermeiden. Ferner wären sie verpflichtet, Nutzer zu Beginn der Interaktion und alle drei Stunden daran zu erinnern, dass sie mit einer Maschine und nicht mit einer Person sprechen.

Ein weiterer wichtiger Punkt des Gesetzes ist die klare Warnung an die Nutzer, dass Chatbots möglicherweise nicht für Minoren geeignet sind. Sollte das Gesetz verabschiedet werden, wäre es eines der ersten Gesetze im Land, das KI-Begleiter mit klaren Sicherheitsstandards und Nutzerschutzmaßnahmen reguliert.

Inspiration hinter dem Gesetz

Die Gesetzgebung ist teilweise inspiriert durch die tragische Geschichte von Sewell Setzer III, einem 14-jährigen Jungen aus Florida, der sich das Leben nahm, nachdem er eine parasoziale Beziehung zu einem Chatbot auf der Plattform Character.AI aufgebaut hatte. Seine Mutter, Megan Garcia, berichtete, dass Setzer den Chatbot Tag und Nacht nutzte und dem Bot mitgeteilt hatte, dass er Selbstmord in Betracht ziehe.

Wissenschaftliche Erkenntnisse

Eine Studie des MIT Media Lab hat ergeben, dass eine höhere tägliche Nutzung von KI-Chatbots mit einem Anstieg von Einsamkeit, Abhängigkeit und „problematischer“ Nutzung korreliert, was von den Forschern als Sucht charakterisiert wird. Die Studie zeigte, dass Begleit-Chatbots süchtiger sein können als soziale Medien, da sie in der Lage sind, herauszufinden, was Nutzer hören möchten, und dieses Feedback bereitzustellen.

Vorschriften zur Gefahrenabwehr

Das Gesetz schreibt vor, dass Betreiber von Chatbots ein Verfahren zur Handhabung von Anzeichen von suizidalen Gedanken oder Selbstverletzung haben müssen. Wenn ein Nutzer suizidale Äußerungen macht, muss der Chatbot mit Ressourcen wie einer Suizid-Hotline antworten, und diese Verfahren müssen öffentlich bekannt gegeben werden. Des Weiteren müssen Unternehmen jährlich Berichte einreichen – ohne persönliche Details preiszugeben – über die Anzahl der Fälle, in denen Chatbots entweder Gespräche über suizidale Gedanken bemerkt oder initiiert haben.

Rechtsmittel und Schadensersatz

Unter dem Gesetz hätte jeder, der durch einen Verstoß geschädigt wird, das Recht, eine Klage auf Schadensersatz in Höhe von bis zu 1.000 Dollar pro Verstoß zu erheben, zuzüglich der Gerichtskosten.

Reaktionen der Industrie

Einige Unternehmen äußern sich gegen die vorgeschlagene Gesetzgebung und bringen Bedenken hinsichtlich ihrer potenziellen Auswirkungen auf die Innovation vor. Ein leitender Angestellter von TechNet, einem landesweiten Netzwerk von Technologie-CEOs, entwarf kürzlich einen offenen Brief, in dem er gegen die Gesetzgebung Stellung nahm und behauptete, die Definition eines Begleit-Chatbots sei zu weit gefasst und die jährlichen Berichtspflichten würden zu kostspielig sein.

Schlussfolgerung

„Die Risiken sind zu hoch, um zuzulassen, dass anfällige Nutzer weiterhin Zugang zu dieser Technologie haben, ohne geeignete Schutzmaßnahmen zu implementieren, um Transparenz, Sicherheit und vor allem Verantwortung zu gewährleisten“, erklärte Padilla.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...