Gesetzgeber drängen auf strengere Vorschriften für KI-Chatbots
Staatliche Gesetzgeber haben mehr als ein Dutzend Gesetzentwürfe eingereicht oder vorab eingereicht, um künstliche Intelligenz-Chatbots zu regulieren. Dies geschieht vor dem Hintergrund wachsender Bedenken, dass diese Verbraucher täuschen, Kinder schädigen oder als Therapeuten auftreten können.
Wachsende Bedenken
Diese Welle von Gesetzentwürfen, von der in den kommenden Wochen mit weiteren gerechnet wird, spiegelt einen dramatischen Anstieg im Vergleich zum Vorjahr wider, als die Gesetzgebung zu Chatbots gerade erst begann. Seitdem haben Chatbots nationale Aufmerksamkeit erregt und sind zu einem Hauptanliegen für einige Gesetzgeber und Gouverneure geworden, besonders aufgrund einer Reihe von Klagen, die behaupten, KI-Begleiter hätten Teenager zu Selbstmord oder anderen Selbstverletzungen geführt.
Risiken und Maßnahmen
Begleitende Chatbots ahmen menschenähnliche Gespräche nach und können auf intime Weise mit Nutzern interagieren, Ratschläge geben und sich wie ein Freund verhalten. Sie können jedoch auch schädlich sein und die Nutzer in ihrer Not unterstützen.
Eine Gesetzesvorlage, die letzte Woche vorgestellt wurde, würde erfordern, dass Begleit-Chatbots mit einem Warnhinweis versehen werden, der besagt, dass eine Interaktion mit ihnen „Abhängigkeit fördern und psychologische Risiken mit sich bringen kann“.
Reaktionen der Gesetzgeber
Gesetzgeber in mehreren Bundesstaaten, darunter Kalifornien, Florida und Michigan, haben ähnliche Gesetzentwürfe eingebracht. Diese Gesetze zielen darauf ab, Minderjährigen den Zugang zu Chatbots zu verwehren, die zu Selbstverletzungen ermutigen oder psychologische Therapie anbieten können.
Einige Unternehmen haben bereits Maßnahmen ergriffen, um ihre Chatbots sicherer für Kinder zu machen und Eltern mehr Kontrolle über die Konten ihrer Kinder zu geben.
Schlussfolgerung
Die zunehmenden Vorschriften zeigen das wachsende Bewusstsein für die potenziellen Gefahren von KI-Chatbots. Die Gesetzgeber scheinen entschlossen zu sein, Maßnahmen zu ergreifen, um Kinder zu schützen und sicherzustellen, dass die Technologie verantwortungsvoll eingesetzt wird.