Ein sicherer Ansatz für KI-gesteuerte Online-Schutzmaßnahmen

A Safety by Design Governance Approach to Addressing AI-Facilitated Online Harms

Die rasante Entwicklung der Künstlichen Intelligenz (KI) verändert die digitale Landschaft und verstärkt bestehende Online-Schäden, während sie neue und komplexere Risiken für die Online-Sicherheit einführt. Generative KI ermöglicht es jetzt Einzelpersonen, die keine technischen Kenntnisse besitzen, synthetische Inhalte zu erstellen, die von authentischen Inhalten nicht zu unterscheiden sind.

Ein Bericht von Netsafe und dem AI Asia Pacific Institute hebt die aufkommenden Sicherheitsimplikationen von KI hervor und verweist auf die Zunahme von Deepfakes als ein klares Beispiel. Der Bericht zeigt auf, wie Deepfakes verwendet werden, um Falschinformationen zu verbreiten, sexualisierte Inhalte zu erstellen und personalisierte Kommunikationsmittel zu nutzen, die gezielte, bösartige Nachrichten im großen Maßstab verbreiten.

Die Bedrohung durch Deepfakes

Deepfakes sind ein zunehmend gängiges Werkzeug für böswillige Akteure, um Online-Schäden zuzufügen und die Informationslandschaft zu verzerren. Im ersten Quartal 2025 allein verursachten Deepfake-Betrügereien, bei denen öffentliche Personen, Privatpersonen und Dienstanbieter impersoniert wurden, weltweite Verluste von 200 Millionen US-Dollar.

Darüber hinaus wurden Deepfakes genutzt, um pornografische Inhalte zu erstellen, die unverhältnismäßig Frauen, Jugendlichen und Kindern schaden. Solches Material wurde verwendet, um Sextortion und Grooming zu erleichtern, was zu Selbstverletzungen und schwerem emotionalen Stress führte, sodass Länder wie Südkorea und Australien die Erstellung nicht einvernehmlicher sexueller Deepfakes kriminalisierten.

Desinformation und Manipulation

KI-generierte Inhalte werden auch genutzt, um Desinformations- und Fehlinformationskampagnen zu unterstützen, die darauf abzielen, die öffentliche Meinung zu beeinflussen und Wahlen zu manipulieren. In Rumänien führten Bedenken hinsichtlich ausländischer Einmischung durch KI-gesteuerte Desinformation zur Nichtigkeit der Präsidentschaftswahlen 2024.

Die schädliche Nutzung von Deepfakes nährt das wachsende Misstrauen gegenüber digitalen und Nachrichtenmedien, was es böswilligen Akteuren ermöglicht, authentische Inhalte als falsch zu diskreditieren, ein Phänomen, das als „Lügner-Dividende” bekannt ist.

Ein ganzheitlicher Ansatz zur Online-Sicherheit

Um die wachsende Komplexität und das Volumen von KI-unterstützten Online-Schäden zu bekämpfen, ist ein Governance-Ansatz „Safety by Design” erforderlich, der verschiedene Phasen des Lebenszyklus von Online-Schäden anspricht und sowohl technologische als auch menschliche Dimensionen der Online-Sicherheit berücksichtigt.

Ein solcher Ansatz könnte im Rahmen eines „Prepare-Curb-Respond”-Modells strukturiert werden, das ein öffentliches Bewusstsein, technische Sicherheitsmaßnahmen und Reaktionsmechanismen umfasst.

Vorbereitung, Eindämmung und Reaktion

Die Vorbereitungsphase konzentriert sich darauf, die Anfälligkeit von Endnutzern für Online-Schäden durch digitale Medienkompetenz zu verringern, um informierte Internetnutzung zu fördern. Die Eindämmungsphase fordert präventive Maßnahmen, die darauf abzielen, die Erstellung und Verbreitung schädlicher digitaler Inhalte zu begrenzen, wie z. B. Inhaltsfilter und Wasserzeichen-Protokolle, die die Herkunft von KI-generierten Inhalten zurückverfolgen.

Die Reaktionsphase umfasst reaktive Maßnahmen zur Behebung der Auswirkungen schädlicher Inhalte, wie z. B. Krisenberatung und Beschwerdemöglichkeiten, um rechtliche Schritte und Inhalteentfernungsanordnungen zu verfolgen.

Internationale Zusammenarbeit und regionale Ansätze

Die Notwendigkeit koordinierter internationaler Governance und Maßnahmen ist entscheidend, um den grenzüberschreitenden Charakter von KI-unterstützten Online-Schäden zu bewältigen. Foren wie das Global Online Safety Regulators Network und das International Network of AI Safety Institutes können den globalen Austausch von Wissen über effektive politische Antworten und aufkommende Schäden unterstützen.

In Regionen, die sich im digitalen Wandel befinden, gibt es ein kritisches Zeitfenster, um den „Prepare-Curb-Respond”-Rahmen anzuwenden, während KI-unterstützte Online-Schäden aufkommen, aber noch nicht weit verbreitet sind. Diese proaktive Haltung ist besonders wichtig für den Pazifik, wo Internetzugang und KI-Systeme wachsen.

Fijis Ansatz zur Bekämpfung von KI-unterstützten Online-Sicherheitsverletzungen bietet ein Modell für den Pazifik, da es digitale Maßnahmen umsetzt, die mit dem „Prepare-Curb-Respond”-Rahmen übereinstimmen.

Schlussfolgerung

Um eine sicherere digitale Welt zu fördern, sind Governance-Rahmen erforderlich, die sich an die ständige Entwicklung von KI anpassen. Es ist wichtig zu erkennen, dass technische Sicherheitsmaßnahmen allein nicht ausreichen. Indem das öffentliche Bewusstsein, technologische Werkzeuge und politische Maßnahmen miteinander verknüpft werden, kann KI effektiver genutzt werden, um die Risiken zu bewältigen, die sie schafft, und die Fähigkeit der Länder zu stärken, Online-Schäden zu bekämpfen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...