Washington-Staat will Kinder vor Risiken durch KI-Chatbots schützen
Die Regulierung von künstlicher Intelligenz — insbesondere wie sie Kinder und Jugendliche betrifft — ist zu einem wichtigen Thema geworden, da die Legislative von Washington ihre neue Sitzung eröffnet.
Warum es wichtig ist
Mit der raschen Verbreitung von KI sagen einige Gesetzgeber, dass Technologieunternehmen nicht ausreichend Schutzmaßnahmen getroffen haben, um Menschen — insbesondere Minderjährige — vor Schaden zu bewahren. Diese sind möglicherweise leichter von langen Gesprächen mit KI-Chatbots zu beeinflussen.
Was gesagt wird
Ein führender Gesetzgeber äußerte sich besorgt über „wirklich schreckliche Geschichten“ von Chatbots, die mit jungen Menschen über Themen wie Suizid, Drogenkonsum und Missbrauch gesprochen haben. Er bezeichnete neue Vorschläge zur Regulierung von Chatbots als etwas, das „sehr ernst genommen werden sollte“.
Vorschläge zur Regulierung
Einige der Gesetzesentwürfe, die in Washington geprüft werden, sehen Standards für die Interaktion von KI-„Begleit-Chatbots“ mit Nutzern vor. Zu den Anforderungen gehört, dass Chatbots Nutzer, die suizidale Gedanken äußern, an eine Suizid-Hotline verweisen müssen. Das Vorschlag umfasst zusätzliche Schutzmaßnahmen für Minderjährige, wie Einschränkungen bei sexuell expliziten Interaktionen und ein Verbot von „manipulativen Engagement-Techniken“.
Der große Zusammenhang
Die Initiative in Washington folgt Klagen von Familien in den USA, die behaupten, dass Chatbots wie ChatGPT zur Suizidrate ihrer Angehörigen beigetragen haben. Ähnliche Klagen wurden diesen Monat gegen andere Unternehmen eingereicht.
Reaktionen der Unternehmen
Ein Unternehmen erklärte, dass es sein Modell aktualisiert hat, um besser auf Anzeichen von psychischen oder emotionalen Stress zu reagieren. Ein anderes Unternehmen hat beschlossen, den Zugang zu seinem Chatbot für Minderjährige zu sperren.
Weitere Vorschläge
Zusätzliche Vorschläge in Washington zielen darauf ab, die Nutzung von KI in Schulen zu regeln, insbesondere im Hinblick auf Disziplinarmaßnahmen oder Überwachung. Ein Vorschlag würde die Verwendung von KI bei wichtigen Entscheidungen wie Einstellungen und Hochschulzulassungen regeln und Schutzmaßnahmen zur Verringerung des Risikos von „algorithmischer Diskriminierung“ vorschreiben.
Wenn Sie oder jemand, den Sie kennen, suizidale Gedanken hat, rufen Sie bitte die nationale Suizidpräventionshotline an.