Vertrauen in synthetische Medien durch verantwortungsvolle KI-Governance stärken

Vertrauen in synthetische Medien durch verantwortungsvolle KI-Governance aufbauen

Das Vertrauen in öffentliche Informationsökosysteme ist entscheidend für die demokratische Debatte und das sozioökonomische Wachstum. Während digitale Medien den Zugang zu Informationen erweitert haben, haben sie auch die Verbreitung von Fehlinformationen und Desinformation ermöglicht, die durch generative KI verstärkt wird. Synthetische Medien, die mit generativer KI erstellt werden, einschließlich Deepfakes, können für konstruktive Zwecke in Bereichen wie Bildung und Unterhaltung verwendet werden. Der Missbrauch, wie die Erstellung von nicht einvernehmlichen intimen Inhalten oder die Verbreitung von Fehlinformationen, wirft jedoch erhebliche Bedenken auf.

Im Gegensatz zu traditionellen Fehlinformationen erscheinen synthetische Medien oft überzeugend real und sind schwer zu identifizieren. Studien zeigen, dass viele Menschen KI-generierte falsche Medien als echt wahrnehmen. Das World Economic Forum warnt, dass KI-gesteuerte Falschinformationen, die die Demokratie untergraben und die soziale Polarisierung vertiefen können, ein unmittelbares Risiko für die globale Wirtschaft darstellen. Indien ist aufgrund niedriger digitaler Literacy und der schwindenden Legitimität traditioneller Medien besonders anfällig für diese Probleme.

Regulierung synthetischer Medien

Die Regulierung, die darauf abzielt, die Schäden durch synthetische Medien zu adressieren, entwickelt sich weltweit weiter. Der AI Act der Europäischen Union klassifiziert Deepfakes als eine „eingeschränkte Risiko“-Kategorie, die Transparenzoffenlegungen erfordert. In den Vereinigten Staaten wurden Gesetze vorgeschlagen, die spezifische Probleme ansprechen, wie den DEFIANCE Act für nicht einvernehmliche explizite Deepfakes und den No AI FRAUD Act, um persönliche Abbildungen zu schützen. Das Take It Down Act, das letzten Monat von Präsident Donald Trump unterzeichnet wurde, zielt darauf ab, die Entfernung nicht einvernehmlicher intimer synthetischer Medien sicherzustellen. Das Online Safety Act des Vereinigten Königreichs kriminalisiert die Erstellung intimer Deepfakes und auferlegt Verpflichtungen an soziale Medienplattformen. Auch Indiens MeitY hat eine Beratung herausgegeben, um Deepfakes zu kennzeichnen.

Vertrauen, Privatsphäre, Verantwortung

Die aufkommenden Vorschriften zur Bekämpfung der Schäden durch synthetische Medien sind größtenteils reaktiv und konzentrieren sich auf Maßnahmen wie die Entfernung von sozialen Medienplattformen und die Identifizierung synthetischer Inhalte. Diese Maßnahmen allein beseitigen jedoch nicht die Erstellung böswilliger synthetischer Medien und deren damit verbundene Schäden. Selbst wenn die Medien klar als künstlich gekennzeichnet sind, können sie dennoch realen Schaden anrichten. Beispielsweise könnte eine Frau, die in nicht einvernehmlichem, KI-generiertem pornografischem Material dargestellt wird, weiterhin Scham, sexuelle Objektivierung und Stress erleben, selbst wenn die Medien einen Disclaimer enthalten, der besagt, dass sie synthetisch sind.

Das Verlassen auf Kennzeichnungstools birgt mehrere operationale Herausforderungen. Erstens fehlt es Kennzeichnungstools oft an Genauigkeit. Dies schafft ein Paradox: Ungenaue Kennzeichnungen können schädliche Medien legitimieren, während unbeschriftete Inhalte als vertrauenswürdig erscheinen können. Zudem könnten Nutzer grundlegende KI-Änderungen, wie Farbkorrekturen, nicht als Manipulation ansehen, während die Meinungen über Änderungen wie Gesichtsveränderungen oder Filter variieren. Es bleibt unklar, ob einfache Farbänderungen eine Kennzeichnung erfordern oder ob die Kennzeichnung nur erfolgen sollte, wenn die Medien substanziell verändert oder mithilfe von KI generiert wurden.

Haftung neu überdenken

Die Governance synthetischer Medien muss kontextspezifisch sein, da die Legalität und Angemessenheit von KI-generierten Inhalten oft davon abhängen, wann und wo sie verwendet werden. Ein Beispiel aus einem Fall kann nicht willkürlich auf alle Situationen angewendet werden. Ein Lehrer, der generative KI verwendet, um synthetische Medien für eine Bildungsstunde über Hassrede zu erstellen, handelt möglicherweise nicht illegal, gegeben den Kontext und die Absicht. Wenn jedoch jemand generative KI verwendet, um Gewalt zu propagieren, sind die Implikationen weitaus ernsthafter.

Auf der Grundlage von gemeinsam entwickelten Risiko-Klassifikationen und Schadensprinzipien sollten Codes und Standards erstellt und verpflichtend für die Integration über den gesamten Lebenszyklus von KI-Systemen gemacht werden. Beispielsweise sollten KI-Systeme Sicherheitscodes und Sicherheitsstandards als nicht verhandelbare Basiserfordernisse integrieren, unabhängig von ihrem offensichtlichen Risikoprofil.

Entwicklung eines kollaborativen Rahmens

Das Verlassen auf freiwillige Verpflichtungen schafft erhebliche Probleme, da es keine bindenden Verpflichtungen etabliert und die Operationen von KI-Systemen intransparent lässt. Die vorgeschlagene Indian AI Safety Institute (AISI) sollte eine aktive Rolle bei der Förderung eines iterativen, kollaborativen Prozesses für die Governance generativer KI spielen, indem sie die Zivilgesellschaft, Akademiker, die Industrie und Experten einbezieht. Die AISI sollte empirische Bewertungen von KI-Modellen und -Systemen durchführen, um Sicherheitsstandards zu entwickeln und Benchmark-Tests zu etablieren, die sich auf Erklärbarkeit, Interpretierbarkeit und Verantwortung konzentrieren.

Ein solch koordinierter Ansatz würde frühe Indikatoren für aufkommende Bedrohungen liefern und eine anpassungsfähige, kontextsensible Governance im sich schnell entwickelnden Bereich der generativen KI unterstützen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...