Ofcoms Untersuchung zu KI-Plattformen im Rahmen des Online-Sicherheitsgesetzes

Untersuchungen zu KI-Plattformen im Rahmen des Online-Sicherheitsgesetzes

Seit Inkrafttreten des Online-Sicherheitsgesetzes (OSA) vor weniger als einem Jahr hat die Aufsichtsbehörde mehr als 90 Plattformen untersucht und sechs Geldstrafen wegen Nichteinhaltung verhängt. Darunter war auch eine Geldstrafe gegen eine KI-Website, die keine robusten Altersüberprüfungen implementiert hatte. In diesem Monat wurden zwei neue Untersuchungen zu generativen KI-Diensten eröffnet.

Wie KI-Chatbots unter das Online-Sicherheitsgesetz fallen

Mit der zunehmenden Nutzung von Chatbot-Technologie steigt auch das Potenzial für Schäden. Ein Chatbot, der die Definitionen des OSA erfüllt oder Teil eines regulierten Dienstes ist, unterliegt den Regeln des Gesetzes. KI-generierte Inhalte, die von Nutzern auf einem Nutzer-zu-Nutzer-Dienst geteilt werden, werden als nutzergenerierte Inhalte klassifiziert und entsprechend reguliert.

Allerdings fallen einige Chatbots nicht unter das Gesetz, wenn sie nur Interaktionen mit dem Chatbot selbst ermöglichen und keine pornografischen Inhalte generieren können.

Untersuchung von X

Am 12. Januar 2026 wurde eine formale Untersuchung gegen ein Unternehmen eröffnet, nachdem Berichte bekannt wurden, dass der Grok-KI-Chatbot zur Erstellung und Verbreitung besorgniserregender Inhalte verwendet wurde. Der Schwerpunkt der Untersuchung liegt auf mehreren Kernvorschriften des OSA, einschließlich der Risikoabschätzungen zu illegalen Inhalten und der Sicherheitsanforderungen.

Die Aufsichtsbehörde prüft, ob das Unternehmen versäumt hat, die Risiken illegaler Inhalte angemessen zu bewerten und ob ausreichende Maßnahmen zum Schutz der Nutzer ergriffen wurden.

Untersuchung von Novi Ltd

Am 15. Januar 2026 wurde eine separate Untersuchung zu einem anderen Dienst eröffnet, der sich mit generativer KI befasst. Diese Untersuchung ist Teil eines umfassenderen Programms zur Durchsetzung von Altersverifizierungsmaßnahmen im Bereich von Inhalten für Erwachsene.

Die Untersuchung prüft, ob das Unternehmen versäumt hat, wirksame Altersverifizierungsmaßnahmen zu implementieren, um zu verhindern, dass Kinder auf pornografische Inhalte zugreifen.

Implikationen und Risiken

Der Vorfall mit dem Grok-Chatbot hat weitreichende Forderungen nach stärkeren rechtlichen Schutzmaßnahmen ausgelöst. Es wird argumentiert, dass eine grundlegende Änderung der Herangehensweise erforderlich ist, um den Herausforderungen von KI-generierten Missbrauchsformen gerecht zu werden.

Ausblick

Diese Untersuchungen zeigen, dass die Aufsichtsbehörde die Bestimmungen des OSA mit der gleichen Strenge auf KI-gestützte Dienste anwendet wie auf traditionelle Plattformen. Anbieter von generativen KI-Diensten, die im Vereinigten Königreich tätig sind, sollten sicherstellen, dass ihre Risikoabschätzungen und Altersverifizierungsmaßnahmen den Anforderungen des Gesetzes entsprechen. Angesichts der zunehmenden Forderungen nach systemischen Änderungen könnte es jedoch notwendig sein, spezifischere Gesetze für KI zu entwickeln.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...