Ein sicherer Ansatz für KI-gesteuerte Online-Schutzmaßnahmen

A Safety by Design Governance Approach to Addressing AI-Facilitated Online Harms

Die rasante Entwicklung der Künstlichen Intelligenz (KI) verändert die digitale Landschaft und verstärkt bestehende Online-Schäden, während sie neue und komplexere Risiken für die Online-Sicherheit einführt. Generative KI ermöglicht es jetzt Einzelpersonen, die keine technischen Kenntnisse besitzen, synthetische Inhalte zu erstellen, die von authentischen Inhalten nicht zu unterscheiden sind.

Ein Bericht von Netsafe und dem AI Asia Pacific Institute hebt die aufkommenden Sicherheitsimplikationen von KI hervor und verweist auf die Zunahme von Deepfakes als ein klares Beispiel. Der Bericht zeigt auf, wie Deepfakes verwendet werden, um Falschinformationen zu verbreiten, sexualisierte Inhalte zu erstellen und personalisierte Kommunikationsmittel zu nutzen, die gezielte, bösartige Nachrichten im großen Maßstab verbreiten.

Die Bedrohung durch Deepfakes

Deepfakes sind ein zunehmend gängiges Werkzeug für böswillige Akteure, um Online-Schäden zuzufügen und die Informationslandschaft zu verzerren. Im ersten Quartal 2025 allein verursachten Deepfake-Betrügereien, bei denen öffentliche Personen, Privatpersonen und Dienstanbieter impersoniert wurden, weltweite Verluste von 200 Millionen US-Dollar.

Darüber hinaus wurden Deepfakes genutzt, um pornografische Inhalte zu erstellen, die unverhältnismäßig Frauen, Jugendlichen und Kindern schaden. Solches Material wurde verwendet, um Sextortion und Grooming zu erleichtern, was zu Selbstverletzungen und schwerem emotionalen Stress führte, sodass Länder wie Südkorea und Australien die Erstellung nicht einvernehmlicher sexueller Deepfakes kriminalisierten.

Desinformation und Manipulation

KI-generierte Inhalte werden auch genutzt, um Desinformations- und Fehlinformationskampagnen zu unterstützen, die darauf abzielen, die öffentliche Meinung zu beeinflussen und Wahlen zu manipulieren. In Rumänien führten Bedenken hinsichtlich ausländischer Einmischung durch KI-gesteuerte Desinformation zur Nichtigkeit der Präsidentschaftswahlen 2024.

Die schädliche Nutzung von Deepfakes nährt das wachsende Misstrauen gegenüber digitalen und Nachrichtenmedien, was es böswilligen Akteuren ermöglicht, authentische Inhalte als falsch zu diskreditieren, ein Phänomen, das als „Lügner-Dividende” bekannt ist.

Ein ganzheitlicher Ansatz zur Online-Sicherheit

Um die wachsende Komplexität und das Volumen von KI-unterstützten Online-Schäden zu bekämpfen, ist ein Governance-Ansatz „Safety by Design” erforderlich, der verschiedene Phasen des Lebenszyklus von Online-Schäden anspricht und sowohl technologische als auch menschliche Dimensionen der Online-Sicherheit berücksichtigt.

Ein solcher Ansatz könnte im Rahmen eines „Prepare-Curb-Respond”-Modells strukturiert werden, das ein öffentliches Bewusstsein, technische Sicherheitsmaßnahmen und Reaktionsmechanismen umfasst.

Vorbereitung, Eindämmung und Reaktion

Die Vorbereitungsphase konzentriert sich darauf, die Anfälligkeit von Endnutzern für Online-Schäden durch digitale Medienkompetenz zu verringern, um informierte Internetnutzung zu fördern. Die Eindämmungsphase fordert präventive Maßnahmen, die darauf abzielen, die Erstellung und Verbreitung schädlicher digitaler Inhalte zu begrenzen, wie z. B. Inhaltsfilter und Wasserzeichen-Protokolle, die die Herkunft von KI-generierten Inhalten zurückverfolgen.

Die Reaktionsphase umfasst reaktive Maßnahmen zur Behebung der Auswirkungen schädlicher Inhalte, wie z. B. Krisenberatung und Beschwerdemöglichkeiten, um rechtliche Schritte und Inhalteentfernungsanordnungen zu verfolgen.

Internationale Zusammenarbeit und regionale Ansätze

Die Notwendigkeit koordinierter internationaler Governance und Maßnahmen ist entscheidend, um den grenzüberschreitenden Charakter von KI-unterstützten Online-Schäden zu bewältigen. Foren wie das Global Online Safety Regulators Network und das International Network of AI Safety Institutes können den globalen Austausch von Wissen über effektive politische Antworten und aufkommende Schäden unterstützen.

In Regionen, die sich im digitalen Wandel befinden, gibt es ein kritisches Zeitfenster, um den „Prepare-Curb-Respond”-Rahmen anzuwenden, während KI-unterstützte Online-Schäden aufkommen, aber noch nicht weit verbreitet sind. Diese proaktive Haltung ist besonders wichtig für den Pazifik, wo Internetzugang und KI-Systeme wachsen.

Fijis Ansatz zur Bekämpfung von KI-unterstützten Online-Sicherheitsverletzungen bietet ein Modell für den Pazifik, da es digitale Maßnahmen umsetzt, die mit dem „Prepare-Curb-Respond”-Rahmen übereinstimmen.

Schlussfolgerung

Um eine sicherere digitale Welt zu fördern, sind Governance-Rahmen erforderlich, die sich an die ständige Entwicklung von KI anpassen. Es ist wichtig zu erkennen, dass technische Sicherheitsmaßnahmen allein nicht ausreichen. Indem das öffentliche Bewusstsein, technologische Werkzeuge und politische Maßnahmen miteinander verknüpft werden, kann KI effektiver genutzt werden, um die Risiken zu bewältigen, die sie schafft, und die Fähigkeit der Länder zu stärken, Online-Schäden zu bekämpfen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...