EU-Richtlinien zur Sicherheit von Teenagern im Umgang mit KI

Die Rolle der EU bei der Sicherheit von Teenagern im Umgang mit KI

In den letzten Monaten haben Unternehmen wie OpenAI und Meta Maßnahmen angekündigt, um die Sicherheit von Jugendlichen im Umgang mit Künstlicher Intelligenz (KI) zu verbessern. OpenAI hat Elternkontrollen für ChatGPT eingeführt, die es Eltern ermöglichen, ihre Konten mit denen ihrer Teenager zu verknüpfen und Einstellungen für eine „sichere, altersgerechte Erfahrung“ anzupassen. Darüber hinaus entwickelt das Unternehmen einen Alterserkennungsalgorithmus, der Nutzer zu geeignetem Inhalt leiten soll, was in extremen Fällen auch die Einbeziehung der Strafverfolgungsbehörden umfassen könnte.

Ähnlich hat Meta angekündigt, dass seine KI-Chatbots darauf trainiert werden, mit Jugendlichen nicht über sensible Themen wie Selbstmord, Selbstverletzung und Essstörungen zu sprechen, sondern sie stattdessen an professionelle Unterstützungsressourcen zu verweisen.

Hintergrund der Maßnahmen

Die jüngsten Unternehmenszusagen sind nicht aus proaktiven Sicherheitsüberlegungen entstanden, sondern aus Klagen, wie im Fall eines amerikanischen Teenagers, dessen Eltern behaupten, ein Chatbot habe ihn zum Selbstmord angeregt. Naomi Baron, Professorin an der American University in Washington, D.C., argumentiert, dass diese Maßnahmen, obwohl sie „ein Schritt in die richtige Richtung“ sind, nicht ausreichen. Ihrer Meinung nach sind Disincentives für Nutzer aller Altersgruppen notwendig, um die Abhängigkeit von KI-Programmen zu verringern, die darauf ausgelegt sind, menschliche Begleiter und Ratgeber zu ersetzen.

Regulatorische Lücken in der EU

Auf politischer Ebene bietet das EU-KI-Gesetz einen regulatorischen Rahmen, der Maßnahmen zur Minderung der psychischen Gesundheitsrisiken durch KI-Chatbots umfasst. Allerdings behandelt der derzeitige rechtliche Rahmen solche Vorfälle eher als bedauerliche Ausnahmen denn als vorhersehbare Folgen des Einsatzes leistungsstarker konversationaler KI ohne ausreichende Sicherheitsvorkehrungen.

Das EU-KI-Gesetz kommt nicht den komplexen Anforderungen nach, wie KI-Systeme in der Praxis funktionieren. Viele KI-Chatbots fallen in die Kategorie geringes Risiko, die lediglich grundlegende Transparenz über die Interaktion der Nutzer mit Maschinen erfordert, während viele psychische Gesundheitsbedenken unbehandelt bleiben.

Vorgaben und Herausforderungen

Italienische Abgeordnete Brando Benifei, einer der Mitberichterstatter des KI-Gesetzes, weist darauf hin, dass über die Transparenzanforderungen hinaus alle KI-Systeme den Verboten gegen absichtlich manipulative Techniken unterliegen, die das Verhalten erheblich verzerren und Schaden verursachen könnten. Diese Bestimmungen sind für die psychische Gesundheit relevant, da KI-Chatbots die Emotionen und Verhaltensweisen der Nutzer manipulieren können.

Allerdings schafft der „absichtliche“ Standard eine erhebliche Beweislast, die es Regulierungsbehörden erschwert, auf streng geschützte Unternehmenskommunikationen und technische Dokumentationen zuzugreifen. Diese Informationen wurden bislang nur durch Lecks offengelegt, nicht durch freiwillige Offenlegungen.

Empfehlungen und Alternativen

Die EU hat kürzlich Leitlinien zum Schutz von Minderjährigen online veröffentlicht, die Erwartungen an Eskalationsmechanismen, Altersverifizierung und unabhängige Prüfungen für Online-Plattformen festlegen. Das Problem ist jedoch, dass diese Leitlinien empfehlend und nicht verbindlich sind.

Ein Beispiel für die Altersverifizierung ist ein von der EU entwickeltes Alterverifizierungs-App, das es Nutzern ermöglicht, ihr Alter zu beweisen, ohne persönliche Daten offenzulegen. Das System gibt nur eine „Ja/Nein“-Antwort bezüglich des Alters eines Nutzers, nicht über dessen persönliche Daten.

Falsche Positiva und ethische Herausforderungen

Wenn Unternehmen Sicherheitsmaßnahmen implementieren, zeigen sowohl technische als auch ethische Herausforderungen, warum regulatorische Rahmenbedingungen nicht allein auf freiwilligen Unternehmensmaßnahmen basieren können. Suizidpräventionssysteme in KI-Chatbots verlassen sich auf automatisierte Systeme, die trainiert wurden, verbale oder emotionale Hinweise zu erkennen, die darauf hindeuten, dass ein Nutzer in der Krise sein könnte.

Falsche Negative, bei denen Systeme echte Notlagen nicht erkennen, können zu verpassten Interventionsmöglichkeiten führen. Falsche Positive können unnötige Belastungen verursachen, indem sie unbegründete Eingriffe auslösen, die möglicherweise auch die Behörden ohne Rechtfertigung einbeziehen.

Fazit

Die rechtlichen Rahmenbedingungen müssen die psychischen Gesundheitsauswirkungen von KI klarer als öffentliche Gesundheitskrise betrachten und keine Unternehmensverantwortung mehr darstellen. Dies erfordert verbindliche Sicherheitsstandards für KI-Systeme, die mit psychischen Gesundheitsgesprächen umgehen, mit echten Durchsetzungsmechanismen und proaktiver Gestaltung, nicht reaktiven Lösungen nach Tragödien.

More Insights

Die Zukunft der KI: Verantwortung und Risiken im AI-ersten Zeitalter

Künstliche Intelligenz ist kein Nischenthema mehr, sondern zentral für Produktdesign und Geschäftsstrategien geworden. Die Herausforderung für die Gesetzgeber besteht darin, die Menschen zu schützen...

Ethik in der künstlichen Intelligenz: Kanadas erste Schule für verantwortungsvolle Technologie

Ontario Tech hat die erste und einzige Schule für Ethik in der künstlichen Intelligenz in Kanada gegründet, um sicherzustellen, dass Innovation der Menschheit und dem Planeten dient. Diese Schule wird...

EU-Richtlinien zur Sicherheit von Teenagern im Umgang mit KI

Die Schlagzeilen klingen beruhigend: OpenAI hat elterliche Kontrollen für ChatGPT eingeführt, um Eltern zu ermöglichen, ihre Konten mit denen ihrer Teenager zu verknüpfen und Einstellungen für eine...

EU AI-Gesetz: Risiken, Strafen und globale Auswirkungen

Die EU führt mit dem neuen AI-Gesetz eine Ära der Regulierung von Künstlicher Intelligenz ein, die Unternehmen weltweit betrifft. Strenge Anforderungen für hochriskante Anwendungen zielen darauf ab...

KI-Sandkasten: Sicheres Experimentieren für staatliche Mitarbeiter

Im Jahr 2023 startete das California Department of Technology (CDT eine generative KI-Sandbox, die es den staatlichen Angestellten ermöglichte, sicher zu experimentieren, wie KI in die öffentlichen...

Vertrauen in GenAI wächst weltweit trotz Sicherheitslücken

Laut einer neuen Studie von SAS haben IT- und Geschäftsleiter mehr Vertrauen in generative KI als in andere KI-Formen, obwohl nur 40 % in die Vertrauenswürdigkeit von KI-Systemen investieren. Die...

Kasachstans digitale Revolution: KI, Krypto und wirtschaftlicher Wandel

Kasachstan hat die Digitalisierung und die Entwicklung von KI zum zentralen Bestandteil seiner nationalen Strategie erklärt, um von einer rohstoffbasierten Wirtschaft wegzukommen. Präsident Tokayev...

Kalifornien führt umfassendes Gesetz für KI-Sicherheit und Transparenz ein

Kalifornien hat mit dem Inkrafttreten des Transparency in Frontier Artificial Intelligence Act (TFAIA) eine umfassende neue KI-Vorschrift erlassen, die auf Transparenz, Sicherheit und Verantwortung in...

Zukunft der KI: Kooperation statt Wettbewerb

In der heutigen schnelllebigen Welt verändert die Technologie, insbesondere die künstliche Intelligenz (KI), unsere Gesellschaft grundlegend und stellt unsere Ethik in Frage. Anstatt den Fortschritt...