EU-Maßnahmen gegen gewalttätige Angriffe durch KI-Chatbots

Wie die EU KI-Chatbots daran hindern kann, gewalttätige Angriffe zu unterstützen

Die Planung eines gewalttätigen Angriffs war noch nie einfacher. In einem Vorfall im Mai 2025 stach ein 16-jähriger finnischer Junge drei seiner Klassenkameradinnen nieder, einen Angriff, den er nach einem ausführlichen Gespräch mit einem KI-Chatbot plante. Der Täter soll den Chatbot verwendet haben, um ein Manifest zu entwickeln und die Vorgehensweise sowie die Strategie des Angriffs zu diskutieren.

In einem aktuellen Bericht wurde bestätigt, dass 8 von 10 der beliebtesten KI-Chatbots einem Jugendlichen bei der Planung eines gewalttätigen Angriffs helfen würden. Die Forscher testeten, ob der Chatbot schädliche Informationen bereitstellt und ob er zur Gewalt anregt. In den meisten Fällen war die Antwort auf beide Fragen ja. Abgesehen von bestimmten Ausnahmen versagten die meisten Chatbots auch darin, Verbindungen zwischen den verschiedenen Aufforderungen herzustellen, um einen klaren Plan für Gewalt im realen Leben zu unterbinden.

Regulierungsansatz der EU

Die EU hat eine Lösung in der Hand: die Regulierung von KI-Chatbots im Rahmen des Digital Services Act (DSA). Angesichts der Risiken, die von diesen neuen benutzerorientierten Online-Diensten ausgehen, und der Millionen europäischer Nutzer, die täglich mit Chatbots interagieren, müssen die politischen Entscheidungsträger durchsetzen, dass die DSA für Anbieter von KI-Chatbots Anwendung findet.

Derzeit reguliert die DSA generative KI nur, wenn sie in eine sehr große Online-Plattform oder eine sehr große Online-Suchmaschine integriert ist. Die Europäische Kommission prüft auch, ob ChatGPT als solche Plattform eingestuft werden soll, was einen ersten Schritt zur Regulierung eigenständiger Chatbots darstellen würde.

Herausforderungen und Risiken

Obwohl die DSA und der AI Act wichtige Schritte sind, reichen sie letztlich nicht aus, um die notwendige Verantwortung und Transparenz zu gewährleisten. Die DSA ist eine starke Gesetzgebung, die darauf abzielt, Nutzer vor den Gefahren digitaler Plattformen zu schützen, aber sie betrachtet Chatbots nicht als Vermittlungsdienste. Stattdessen sollte die Regulierung sich darauf konzentrieren, was diese Dienste tun. Wenn ein System Benutzereingaben speichert, potenziell schädliche Ausgaben produziert und täglich Millionen erreicht, sollte es den gleichen Pflichten unterliegen wie andere Online-Dienste, einschließlich Risikoanalyse, -minderung und Transparenz.

Maßnahmen zur Verhinderung von KI-unterstützter Gewalt

Die EU sollte kurzfristig KI-Chatbots als Hosting-Anbieter unter der DSA behandeln. Diese Definition würde einige grundlegende Verpflichtungen bereits anwenden, darunter Mechanismen zur Benachrichtigung und Maßnahmen gegen illegale Inhalte. Langfristig sind gezielte Änderungen an der DSA notwendig, um eine neue Definition und Kategorie speziell für Online-KI-Chatbots einzuführen.

Durch diese Änderungen könnten wichtige Schutzmaßnahmen eingeführt werden, darunter Risikoanalysen und spezifische Überlegungen zum Schutz von Minderjährigen, was angesichts der steigenden Suizidfälle unter Minderjährigen und der wachsenden Bedenken hinsichtlich der psychologischen Auswirkungen von Chatbot-Interaktionen dringend erforderlich ist.

Fazit

Die europäische Nutzerbasis greift zunehmend auf Chatbots zu, um Informationen zu suchen und Gespräche zu führen. Die EU verfügt über starke gesetzgeberische Mechanismen, um die Rechte der Nutzer zu schützen und deren Risiken im Umgang mit KI zu minimieren. Daher sollten die politischen Entscheidungsträger den AI Act nicht verzögern und die DSA für KI-Chatbots durchsetzen, bevor es zu spät ist.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...