Die Rolle der EU bei der Sicherheit von Teenagern im Umgang mit KI
In den letzten Monaten haben Unternehmen wie OpenAI und Meta Maßnahmen angekündigt, um die Sicherheit von Jugendlichen im Umgang mit Künstlicher Intelligenz (KI) zu verbessern. OpenAI hat Elternkontrollen für ChatGPT eingeführt, die es Eltern ermöglichen, ihre Konten mit denen ihrer Teenager zu verknüpfen und Einstellungen für eine „sichere, altersgerechte Erfahrung“ anzupassen. Darüber hinaus entwickelt das Unternehmen einen Alterserkennungsalgorithmus, der Nutzer zu geeignetem Inhalt leiten soll, was in extremen Fällen auch die Einbeziehung der Strafverfolgungsbehörden umfassen könnte.
Ähnlich hat Meta angekündigt, dass seine KI-Chatbots darauf trainiert werden, mit Jugendlichen nicht über sensible Themen wie Selbstmord, Selbstverletzung und Essstörungen zu sprechen, sondern sie stattdessen an professionelle Unterstützungsressourcen zu verweisen.
Hintergrund der Maßnahmen
Die jüngsten Unternehmenszusagen sind nicht aus proaktiven Sicherheitsüberlegungen entstanden, sondern aus Klagen, wie im Fall eines amerikanischen Teenagers, dessen Eltern behaupten, ein Chatbot habe ihn zum Selbstmord angeregt. Naomi Baron, Professorin an der American University in Washington, D.C., argumentiert, dass diese Maßnahmen, obwohl sie „ein Schritt in die richtige Richtung“ sind, nicht ausreichen. Ihrer Meinung nach sind Disincentives für Nutzer aller Altersgruppen notwendig, um die Abhängigkeit von KI-Programmen zu verringern, die darauf ausgelegt sind, menschliche Begleiter und Ratgeber zu ersetzen.
Regulatorische Lücken in der EU
Auf politischer Ebene bietet das EU-KI-Gesetz einen regulatorischen Rahmen, der Maßnahmen zur Minderung der psychischen Gesundheitsrisiken durch KI-Chatbots umfasst. Allerdings behandelt der derzeitige rechtliche Rahmen solche Vorfälle eher als bedauerliche Ausnahmen denn als vorhersehbare Folgen des Einsatzes leistungsstarker konversationaler KI ohne ausreichende Sicherheitsvorkehrungen.
Das EU-KI-Gesetz kommt nicht den komplexen Anforderungen nach, wie KI-Systeme in der Praxis funktionieren. Viele KI-Chatbots fallen in die Kategorie geringes Risiko, die lediglich grundlegende Transparenz über die Interaktion der Nutzer mit Maschinen erfordert, während viele psychische Gesundheitsbedenken unbehandelt bleiben.
Vorgaben und Herausforderungen
Italienische Abgeordnete Brando Benifei, einer der Mitberichterstatter des KI-Gesetzes, weist darauf hin, dass über die Transparenzanforderungen hinaus alle KI-Systeme den Verboten gegen absichtlich manipulative Techniken unterliegen, die das Verhalten erheblich verzerren und Schaden verursachen könnten. Diese Bestimmungen sind für die psychische Gesundheit relevant, da KI-Chatbots die Emotionen und Verhaltensweisen der Nutzer manipulieren können.
Allerdings schafft der „absichtliche“ Standard eine erhebliche Beweislast, die es Regulierungsbehörden erschwert, auf streng geschützte Unternehmenskommunikationen und technische Dokumentationen zuzugreifen. Diese Informationen wurden bislang nur durch Lecks offengelegt, nicht durch freiwillige Offenlegungen.
Empfehlungen und Alternativen
Die EU hat kürzlich Leitlinien zum Schutz von Minderjährigen online veröffentlicht, die Erwartungen an Eskalationsmechanismen, Altersverifizierung und unabhängige Prüfungen für Online-Plattformen festlegen. Das Problem ist jedoch, dass diese Leitlinien empfehlend und nicht verbindlich sind.
Ein Beispiel für die Altersverifizierung ist ein von der EU entwickeltes Alterverifizierungs-App, das es Nutzern ermöglicht, ihr Alter zu beweisen, ohne persönliche Daten offenzulegen. Das System gibt nur eine „Ja/Nein“-Antwort bezüglich des Alters eines Nutzers, nicht über dessen persönliche Daten.
Falsche Positiva und ethische Herausforderungen
Wenn Unternehmen Sicherheitsmaßnahmen implementieren, zeigen sowohl technische als auch ethische Herausforderungen, warum regulatorische Rahmenbedingungen nicht allein auf freiwilligen Unternehmensmaßnahmen basieren können. Suizidpräventionssysteme in KI-Chatbots verlassen sich auf automatisierte Systeme, die trainiert wurden, verbale oder emotionale Hinweise zu erkennen, die darauf hindeuten, dass ein Nutzer in der Krise sein könnte.
Falsche Negative, bei denen Systeme echte Notlagen nicht erkennen, können zu verpassten Interventionsmöglichkeiten führen. Falsche Positive können unnötige Belastungen verursachen, indem sie unbegründete Eingriffe auslösen, die möglicherweise auch die Behörden ohne Rechtfertigung einbeziehen.
Fazit
Die rechtlichen Rahmenbedingungen müssen die psychischen Gesundheitsauswirkungen von KI klarer als öffentliche Gesundheitskrise betrachten und keine Unternehmensverantwortung mehr darstellen. Dies erfordert verbindliche Sicherheitsstandards für KI-Systeme, die mit psychischen Gesundheitsgesprächen umgehen, mit echten Durchsetzungsmechanismen und proaktiver Gestaltung, nicht reaktiven Lösungen nach Tragödien.