Vertrauen in synthetische Medien durch verantwortungsvolle KI-Governance stärken

Vertrauen in synthetische Medien durch verantwortungsvolle KI-Governance aufbauen

Das Vertrauen in öffentliche Informationsökosysteme ist entscheidend für die demokratische Debatte und das sozioökonomische Wachstum. Während digitale Medien den Zugang zu Informationen erweitert haben, haben sie auch die Verbreitung von Fehlinformationen und Desinformation ermöglicht, die durch generative KI verstärkt wird. Synthetische Medien, die mit generativer KI erstellt werden, einschließlich Deepfakes, können für konstruktive Zwecke in Bereichen wie Bildung und Unterhaltung verwendet werden. Der Missbrauch, wie die Erstellung von nicht einvernehmlichen intimen Inhalten oder die Verbreitung von Fehlinformationen, wirft jedoch erhebliche Bedenken auf.

Im Gegensatz zu traditionellen Fehlinformationen erscheinen synthetische Medien oft überzeugend real und sind schwer zu identifizieren. Studien zeigen, dass viele Menschen KI-generierte falsche Medien als echt wahrnehmen. Das World Economic Forum warnt, dass KI-gesteuerte Falschinformationen, die die Demokratie untergraben und die soziale Polarisierung vertiefen können, ein unmittelbares Risiko für die globale Wirtschaft darstellen. Indien ist aufgrund niedriger digitaler Literacy und der schwindenden Legitimität traditioneller Medien besonders anfällig für diese Probleme.

Regulierung synthetischer Medien

Die Regulierung, die darauf abzielt, die Schäden durch synthetische Medien zu adressieren, entwickelt sich weltweit weiter. Der AI Act der Europäischen Union klassifiziert Deepfakes als eine „eingeschränkte Risiko“-Kategorie, die Transparenzoffenlegungen erfordert. In den Vereinigten Staaten wurden Gesetze vorgeschlagen, die spezifische Probleme ansprechen, wie den DEFIANCE Act für nicht einvernehmliche explizite Deepfakes und den No AI FRAUD Act, um persönliche Abbildungen zu schützen. Das Take It Down Act, das letzten Monat von Präsident Donald Trump unterzeichnet wurde, zielt darauf ab, die Entfernung nicht einvernehmlicher intimer synthetischer Medien sicherzustellen. Das Online Safety Act des Vereinigten Königreichs kriminalisiert die Erstellung intimer Deepfakes und auferlegt Verpflichtungen an soziale Medienplattformen. Auch Indiens MeitY hat eine Beratung herausgegeben, um Deepfakes zu kennzeichnen.

Vertrauen, Privatsphäre, Verantwortung

Die aufkommenden Vorschriften zur Bekämpfung der Schäden durch synthetische Medien sind größtenteils reaktiv und konzentrieren sich auf Maßnahmen wie die Entfernung von sozialen Medienplattformen und die Identifizierung synthetischer Inhalte. Diese Maßnahmen allein beseitigen jedoch nicht die Erstellung böswilliger synthetischer Medien und deren damit verbundene Schäden. Selbst wenn die Medien klar als künstlich gekennzeichnet sind, können sie dennoch realen Schaden anrichten. Beispielsweise könnte eine Frau, die in nicht einvernehmlichem, KI-generiertem pornografischem Material dargestellt wird, weiterhin Scham, sexuelle Objektivierung und Stress erleben, selbst wenn die Medien einen Disclaimer enthalten, der besagt, dass sie synthetisch sind.

Das Verlassen auf Kennzeichnungstools birgt mehrere operationale Herausforderungen. Erstens fehlt es Kennzeichnungstools oft an Genauigkeit. Dies schafft ein Paradox: Ungenaue Kennzeichnungen können schädliche Medien legitimieren, während unbeschriftete Inhalte als vertrauenswürdig erscheinen können. Zudem könnten Nutzer grundlegende KI-Änderungen, wie Farbkorrekturen, nicht als Manipulation ansehen, während die Meinungen über Änderungen wie Gesichtsveränderungen oder Filter variieren. Es bleibt unklar, ob einfache Farbänderungen eine Kennzeichnung erfordern oder ob die Kennzeichnung nur erfolgen sollte, wenn die Medien substanziell verändert oder mithilfe von KI generiert wurden.

Haftung neu überdenken

Die Governance synthetischer Medien muss kontextspezifisch sein, da die Legalität und Angemessenheit von KI-generierten Inhalten oft davon abhängen, wann und wo sie verwendet werden. Ein Beispiel aus einem Fall kann nicht willkürlich auf alle Situationen angewendet werden. Ein Lehrer, der generative KI verwendet, um synthetische Medien für eine Bildungsstunde über Hassrede zu erstellen, handelt möglicherweise nicht illegal, gegeben den Kontext und die Absicht. Wenn jedoch jemand generative KI verwendet, um Gewalt zu propagieren, sind die Implikationen weitaus ernsthafter.

Auf der Grundlage von gemeinsam entwickelten Risiko-Klassifikationen und Schadensprinzipien sollten Codes und Standards erstellt und verpflichtend für die Integration über den gesamten Lebenszyklus von KI-Systemen gemacht werden. Beispielsweise sollten KI-Systeme Sicherheitscodes und Sicherheitsstandards als nicht verhandelbare Basiserfordernisse integrieren, unabhängig von ihrem offensichtlichen Risikoprofil.

Entwicklung eines kollaborativen Rahmens

Das Verlassen auf freiwillige Verpflichtungen schafft erhebliche Probleme, da es keine bindenden Verpflichtungen etabliert und die Operationen von KI-Systemen intransparent lässt. Die vorgeschlagene Indian AI Safety Institute (AISI) sollte eine aktive Rolle bei der Förderung eines iterativen, kollaborativen Prozesses für die Governance generativer KI spielen, indem sie die Zivilgesellschaft, Akademiker, die Industrie und Experten einbezieht. Die AISI sollte empirische Bewertungen von KI-Modellen und -Systemen durchführen, um Sicherheitsstandards zu entwickeln und Benchmark-Tests zu etablieren, die sich auf Erklärbarkeit, Interpretierbarkeit und Verantwortung konzentrieren.

Ein solch koordinierter Ansatz würde frühe Indikatoren für aufkommende Bedrohungen liefern und eine anpassungsfähige, kontextsensible Governance im sich schnell entwickelnden Bereich der generativen KI unterstützen.

More Insights

AI als strategischer Partner der Regierung der VAE

Die VAE haben angekündigt, dass ein Nationales Künstliche-Intelligenz-System Mitglied aller föderalen und staatlichen Unternehmensvorstände werden wird. Diese Initiative zeigt, dass die Governance neu...

EU- Leitfaden für KI-Regeln: Umsetzung bis Ende 2025

Ein Verhaltenskodex, der Tausenden von Unternehmen helfen soll, die bahnbrechenden KI-Regeln der Europäischen Union einzuhalten, könnte erst Ende 2025 gültig sein. Die EU-Kommission plant, den Kodex...

EU- Leitfaden für KI-Regeln: Umsetzung bis Ende 2025

Ein Verhaltenskodex, der Tausenden von Unternehmen helfen soll, die bahnbrechenden KI-Regeln der Europäischen Union einzuhalten, könnte erst Ende 2025 gültig sein. Die EU-Kommission plant, den Kodex...

Die Krise der KI-Verantwortung: Warum Unternehmen scheitern

Künstliche Intelligenz hat einen Wendepunkt erreicht, da Unternehmen hastig alles von generativen KI-Chatbots bis hin zu prädiktiven Analysesystemen einführen. Ohne systematische Aufsicht werden diese...

Kommission prüft Übergangsfrist für Unternehmen zur Einhaltung des KI-Codes

Die Kommission erwägt, Unternehmen, die den AI-Code unterzeichnen, eine Übergangsfrist für die Einhaltung der Vorschriften anzubieten. Dies könnte den betroffenen Firmen mehr Zeit geben, um sich an...

Texas‘ Weg zur Verantwortungsvollen KI-Regulierung

Am 22. Juni 2025 verabschiedete Texas das Texas Responsible Artificial Intelligence Governance Act, das am 1. Januar 2026 in Kraft tritt. Dieses Gesetz schafft einen umfassenden Rahmen für die...

Texas‘ Weg zur Verantwortungsvollen KI-Regulierung

Am 22. Juni 2025 verabschiedete Texas das Texas Responsible Artificial Intelligence Governance Act, das am 1. Januar 2026 in Kraft tritt. Dieses Gesetz schafft einen umfassenden Rahmen für die...

Gesetzliche Maßnahmen gegen Deepfakes in Europa

Dänemark wird den Menschen das Urheberrecht über ihr eigenes Abbild geben, um gegen generierte „Deepfake“-Videos vorzugehen. Dies geschieht, während Länder auf der ganzen Welt mit dem raschen Anstieg...