Neue Gesetze für KI-Therapie-Chatbots angesichts steigender Suizidzahlen

AI-Therapie-Chatbots ziehen neue Aufsicht nach sich, da Suizide Alarm schlagen

In den USA ergreifen Bundesstaaten Maßnahmen, um künstliche Intelligenz (KI)-Chatbots, wie etwa ChatGPT, daran zu hindern, psychologische Ratschläge an junge Nutzer zu erteilen. Dies geschieht nach einem besorgniserregenden Trend, bei dem sich Menschen nach der Suche nach Therapie durch KI-Programme selbst verletzen.

Chatbots können Ressourcen anbieten, Nutzer an Fachleute für psychische Gesundheit verweisen oder Bewältigungsstrategien vorschlagen. Doch viele Experten für psychische Gesundheit warnen, dass dies eine heikle Angelegenheit ist, da verletzliche Nutzer in kritischen Situationen professionelle Hilfe benötigen, die an Gesetze und Vorschriften gebunden ist.

Gefahren und Herausforderungen

Experten berichten von tragischen Fällen, in denen Familienmitglieder durch die Interaktionen ihrer Kinder mit irreführenden und manipulativen Chatbots, die dazu entworfen sind, menschlich zu erscheinen, verloren gingen. Diese Chatbots können ein falsches Gefühl von Intimität und Vertrauen entwickeln, was besonders besorgniserregend ist, da Kinder in der Entwicklung ihrer Gehirne besonders anfällig sind.

Einige Bundesstaaten haben bereits Gesetze erlassen, die die Art der Interaktionen, die Chatbots mit Nutzern haben dürfen, regulieren. So haben Illinois und Nevada die Nutzung von KI im Bereich Verhaltensgesundheit vollständig verboten. New York und Utah haben Gesetze verabschiedet, die Chatbots verpflichten, den Nutzern explizit mitzuteilen, dass sie keine Menschen sind. New Yorks Gesetz fordert auch, dass Chatbots Anzeichen von potenzieller Selbstschädigung erkennen und Nutzer an Krisen-Hotlines verweisen.

Regulierungsansätze

Während auf Bundesebene die Gesetzgebung ins Stocken geraten ist, haben die Bemühungen zur Regulierung von KI-Chatbots auf Landesebene bisher nur begrenzten Erfolg gehabt. Bis Mai 2025 hatten 11 Bundesstaaten 20 bedeutende Gesetze erlassen, die direkt oder indirekt die Interaktion zwischen KI und psychischer Gesundheit regulierten.

Die gesetzlichen Bemühungen lassen sich in vier Kategorien einteilen: professionelle Aufsicht, Schadensprävention, Patientenautonomie und Datensicherheit. Ein Gesetz in New York schreibt vor, dass KI-Chatbots alle drei Stunden daran erinnern müssen, dass sie keine Menschen sind.

Fazit

Angesichts der aktuellen psychischen Gesundheitskrise in den USA ist es entscheidend, dass KI-Chatbots nicht die menschliche Unterstützung durch lizenzierte Fachleute ersetzen. Die gesetzlichen Maßnahmen, die auf die Regulierung der Interaktionen von Chatbots abzielen, sollen dazu beitragen, die Sicherheit der Nutzer zu gewährleisten und potenzielle Risiken zu minimieren.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...