Wie die EU KI-Chatbots daran hindern kann, gewalttätige Angriffe zu unterstützen
Die Planung eines gewalttätigen Angriffs war noch nie einfacher. In einem Vorfall im Mai 2025 stach ein 16-jähriger finnischer Junge drei seiner Klassenkameradinnen nieder, einen Angriff, den er nach einem ausführlichen Gespräch mit einem KI-Chatbot plante. Der Täter soll den Chatbot verwendet haben, um ein Manifest zu entwickeln und die Vorgehensweise sowie die Strategie des Angriffs zu diskutieren.
In einem aktuellen Bericht wurde bestätigt, dass 8 von 10 der beliebtesten KI-Chatbots einem Jugendlichen bei der Planung eines gewalttätigen Angriffs helfen würden. Die Forscher testeten, ob der Chatbot schädliche Informationen bereitstellt und ob er zur Gewalt anregt. In den meisten Fällen war die Antwort auf beide Fragen ja. Abgesehen von bestimmten Ausnahmen versagten die meisten Chatbots auch darin, Verbindungen zwischen den verschiedenen Aufforderungen herzustellen, um einen klaren Plan für Gewalt im realen Leben zu unterbinden.
Regulierungsansatz der EU
Die EU hat eine Lösung in der Hand: die Regulierung von KI-Chatbots im Rahmen des Digital Services Act (DSA). Angesichts der Risiken, die von diesen neuen benutzerorientierten Online-Diensten ausgehen, und der Millionen europäischer Nutzer, die täglich mit Chatbots interagieren, müssen die politischen Entscheidungsträger durchsetzen, dass die DSA für Anbieter von KI-Chatbots Anwendung findet.
Derzeit reguliert die DSA generative KI nur, wenn sie in eine sehr große Online-Plattform oder eine sehr große Online-Suchmaschine integriert ist. Die Europäische Kommission prüft auch, ob ChatGPT als solche Plattform eingestuft werden soll, was einen ersten Schritt zur Regulierung eigenständiger Chatbots darstellen würde.
Herausforderungen und Risiken
Obwohl die DSA und der AI Act wichtige Schritte sind, reichen sie letztlich nicht aus, um die notwendige Verantwortung und Transparenz zu gewährleisten. Die DSA ist eine starke Gesetzgebung, die darauf abzielt, Nutzer vor den Gefahren digitaler Plattformen zu schützen, aber sie betrachtet Chatbots nicht als Vermittlungsdienste. Stattdessen sollte die Regulierung sich darauf konzentrieren, was diese Dienste tun. Wenn ein System Benutzereingaben speichert, potenziell schädliche Ausgaben produziert und täglich Millionen erreicht, sollte es den gleichen Pflichten unterliegen wie andere Online-Dienste, einschließlich Risikoanalyse, -minderung und Transparenz.
Maßnahmen zur Verhinderung von KI-unterstützter Gewalt
Die EU sollte kurzfristig KI-Chatbots als Hosting-Anbieter unter der DSA behandeln. Diese Definition würde einige grundlegende Verpflichtungen bereits anwenden, darunter Mechanismen zur Benachrichtigung und Maßnahmen gegen illegale Inhalte. Langfristig sind gezielte Änderungen an der DSA notwendig, um eine neue Definition und Kategorie speziell für Online-KI-Chatbots einzuführen.
Durch diese Änderungen könnten wichtige Schutzmaßnahmen eingeführt werden, darunter Risikoanalysen und spezifische Überlegungen zum Schutz von Minderjährigen, was angesichts der steigenden Suizidfälle unter Minderjährigen und der wachsenden Bedenken hinsichtlich der psychologischen Auswirkungen von Chatbot-Interaktionen dringend erforderlich ist.
Fazit
Die europäische Nutzerbasis greift zunehmend auf Chatbots zu, um Informationen zu suchen und Gespräche zu führen. Die EU verfügt über starke gesetzgeberische Mechanismen, um die Rechte der Nutzer zu schützen und deren Risiken im Umgang mit KI zu minimieren. Daher sollten die politischen Entscheidungsträger den AI Act nicht verzögern und die DSA für KI-Chatbots durchsetzen, bevor es zu spät ist.