EU-Richtlinien zur Sicherheit von Teenagern im Umgang mit KI

Die Rolle der EU bei der Sicherheit von Teenagern im Umgang mit KI

In den letzten Monaten haben Unternehmen wie OpenAI und Meta Maßnahmen angekündigt, um die Sicherheit von Jugendlichen im Umgang mit Künstlicher Intelligenz (KI) zu verbessern. OpenAI hat Elternkontrollen für ChatGPT eingeführt, die es Eltern ermöglichen, ihre Konten mit denen ihrer Teenager zu verknüpfen und Einstellungen für eine „sichere, altersgerechte Erfahrung“ anzupassen. Darüber hinaus entwickelt das Unternehmen einen Alterserkennungsalgorithmus, der Nutzer zu geeignetem Inhalt leiten soll, was in extremen Fällen auch die Einbeziehung der Strafverfolgungsbehörden umfassen könnte.

Ähnlich hat Meta angekündigt, dass seine KI-Chatbots darauf trainiert werden, mit Jugendlichen nicht über sensible Themen wie Selbstmord, Selbstverletzung und Essstörungen zu sprechen, sondern sie stattdessen an professionelle Unterstützungsressourcen zu verweisen.

Hintergrund der Maßnahmen

Die jüngsten Unternehmenszusagen sind nicht aus proaktiven Sicherheitsüberlegungen entstanden, sondern aus Klagen, wie im Fall eines amerikanischen Teenagers, dessen Eltern behaupten, ein Chatbot habe ihn zum Selbstmord angeregt. Naomi Baron, Professorin an der American University in Washington, D.C., argumentiert, dass diese Maßnahmen, obwohl sie „ein Schritt in die richtige Richtung“ sind, nicht ausreichen. Ihrer Meinung nach sind Disincentives für Nutzer aller Altersgruppen notwendig, um die Abhängigkeit von KI-Programmen zu verringern, die darauf ausgelegt sind, menschliche Begleiter und Ratgeber zu ersetzen.

Regulatorische Lücken in der EU

Auf politischer Ebene bietet das EU-KI-Gesetz einen regulatorischen Rahmen, der Maßnahmen zur Minderung der psychischen Gesundheitsrisiken durch KI-Chatbots umfasst. Allerdings behandelt der derzeitige rechtliche Rahmen solche Vorfälle eher als bedauerliche Ausnahmen denn als vorhersehbare Folgen des Einsatzes leistungsstarker konversationaler KI ohne ausreichende Sicherheitsvorkehrungen.

Das EU-KI-Gesetz kommt nicht den komplexen Anforderungen nach, wie KI-Systeme in der Praxis funktionieren. Viele KI-Chatbots fallen in die Kategorie geringes Risiko, die lediglich grundlegende Transparenz über die Interaktion der Nutzer mit Maschinen erfordert, während viele psychische Gesundheitsbedenken unbehandelt bleiben.

Vorgaben und Herausforderungen

Italienische Abgeordnete Brando Benifei, einer der Mitberichterstatter des KI-Gesetzes, weist darauf hin, dass über die Transparenzanforderungen hinaus alle KI-Systeme den Verboten gegen absichtlich manipulative Techniken unterliegen, die das Verhalten erheblich verzerren und Schaden verursachen könnten. Diese Bestimmungen sind für die psychische Gesundheit relevant, da KI-Chatbots die Emotionen und Verhaltensweisen der Nutzer manipulieren können.

Allerdings schafft der „absichtliche“ Standard eine erhebliche Beweislast, die es Regulierungsbehörden erschwert, auf streng geschützte Unternehmenskommunikationen und technische Dokumentationen zuzugreifen. Diese Informationen wurden bislang nur durch Lecks offengelegt, nicht durch freiwillige Offenlegungen.

Empfehlungen und Alternativen

Die EU hat kürzlich Leitlinien zum Schutz von Minderjährigen online veröffentlicht, die Erwartungen an Eskalationsmechanismen, Altersverifizierung und unabhängige Prüfungen für Online-Plattformen festlegen. Das Problem ist jedoch, dass diese Leitlinien empfehlend und nicht verbindlich sind.

Ein Beispiel für die Altersverifizierung ist ein von der EU entwickeltes Alterverifizierungs-App, das es Nutzern ermöglicht, ihr Alter zu beweisen, ohne persönliche Daten offenzulegen. Das System gibt nur eine „Ja/Nein“-Antwort bezüglich des Alters eines Nutzers, nicht über dessen persönliche Daten.

Falsche Positiva und ethische Herausforderungen

Wenn Unternehmen Sicherheitsmaßnahmen implementieren, zeigen sowohl technische als auch ethische Herausforderungen, warum regulatorische Rahmenbedingungen nicht allein auf freiwilligen Unternehmensmaßnahmen basieren können. Suizidpräventionssysteme in KI-Chatbots verlassen sich auf automatisierte Systeme, die trainiert wurden, verbale oder emotionale Hinweise zu erkennen, die darauf hindeuten, dass ein Nutzer in der Krise sein könnte.

Falsche Negative, bei denen Systeme echte Notlagen nicht erkennen, können zu verpassten Interventionsmöglichkeiten führen. Falsche Positive können unnötige Belastungen verursachen, indem sie unbegründete Eingriffe auslösen, die möglicherweise auch die Behörden ohne Rechtfertigung einbeziehen.

Fazit

Die rechtlichen Rahmenbedingungen müssen die psychischen Gesundheitsauswirkungen von KI klarer als öffentliche Gesundheitskrise betrachten und keine Unternehmensverantwortung mehr darstellen. Dies erfordert verbindliche Sicherheitsstandards für KI-Systeme, die mit psychischen Gesundheitsgesprächen umgehen, mit echten Durchsetzungsmechanismen und proaktiver Gestaltung, nicht reaktiven Lösungen nach Tragödien.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...