AI-Therapie-Chatbots ziehen neue Aufsicht nach sich, da Suizide Alarm schlagen
In den USA ergreifen Bundesstaaten Maßnahmen, um künstliche Intelligenz (KI)-Chatbots, wie etwa ChatGPT, daran zu hindern, psychologische Ratschläge an junge Nutzer zu erteilen. Dies geschieht nach einem besorgniserregenden Trend, bei dem sich Menschen nach der Suche nach Therapie durch KI-Programme selbst verletzen.
Chatbots können Ressourcen anbieten, Nutzer an Fachleute für psychische Gesundheit verweisen oder Bewältigungsstrategien vorschlagen. Doch viele Experten für psychische Gesundheit warnen, dass dies eine heikle Angelegenheit ist, da verletzliche Nutzer in kritischen Situationen professionelle Hilfe benötigen, die an Gesetze und Vorschriften gebunden ist.
Gefahren und Herausforderungen
Experten berichten von tragischen Fällen, in denen Familienmitglieder durch die Interaktionen ihrer Kinder mit irreführenden und manipulativen Chatbots, die dazu entworfen sind, menschlich zu erscheinen, verloren gingen. Diese Chatbots können ein falsches Gefühl von Intimität und Vertrauen entwickeln, was besonders besorgniserregend ist, da Kinder in der Entwicklung ihrer Gehirne besonders anfällig sind.
Einige Bundesstaaten haben bereits Gesetze erlassen, die die Art der Interaktionen, die Chatbots mit Nutzern haben dürfen, regulieren. So haben Illinois und Nevada die Nutzung von KI im Bereich Verhaltensgesundheit vollständig verboten. New York und Utah haben Gesetze verabschiedet, die Chatbots verpflichten, den Nutzern explizit mitzuteilen, dass sie keine Menschen sind. New Yorks Gesetz fordert auch, dass Chatbots Anzeichen von potenzieller Selbstschädigung erkennen und Nutzer an Krisen-Hotlines verweisen.
Regulierungsansätze
Während auf Bundesebene die Gesetzgebung ins Stocken geraten ist, haben die Bemühungen zur Regulierung von KI-Chatbots auf Landesebene bisher nur begrenzten Erfolg gehabt. Bis Mai 2025 hatten 11 Bundesstaaten 20 bedeutende Gesetze erlassen, die direkt oder indirekt die Interaktion zwischen KI und psychischer Gesundheit regulierten.
Die gesetzlichen Bemühungen lassen sich in vier Kategorien einteilen: professionelle Aufsicht, Schadensprävention, Patientenautonomie und Datensicherheit. Ein Gesetz in New York schreibt vor, dass KI-Chatbots alle drei Stunden daran erinnern müssen, dass sie keine Menschen sind.
Fazit
Angesichts der aktuellen psychischen Gesundheitskrise in den USA ist es entscheidend, dass KI-Chatbots nicht die menschliche Unterstützung durch lizenzierte Fachleute ersetzen. Die gesetzlichen Maßnahmen, die auf die Regulierung der Interaktionen von Chatbots abzielen, sollen dazu beitragen, die Sicherheit der Nutzer zu gewährleisten und potenzielle Risiken zu minimieren.