Vertrauen in synthetische Medien durch verantwortungsvolle KI-Governance aufbauen
Das Vertrauen in öffentliche Informationsökosysteme ist entscheidend für die demokratische Debatte und das sozioökonomische Wachstum. Während digitale Medien den Zugang zu Informationen erweitert haben, haben sie auch die Verbreitung von Fehlinformationen und Desinformation ermöglicht, die durch generative KI verstärkt wird. Synthetische Medien, die mit generativer KI erstellt werden, einschließlich Deepfakes, können für konstruktive Zwecke in Bereichen wie Bildung und Unterhaltung verwendet werden. Der Missbrauch, wie die Erstellung von nicht einvernehmlichen intimen Inhalten oder die Verbreitung von Fehlinformationen, wirft jedoch erhebliche Bedenken auf.
Im Gegensatz zu traditionellen Fehlinformationen erscheinen synthetische Medien oft überzeugend real und sind schwer zu identifizieren. Studien zeigen, dass viele Menschen KI-generierte falsche Medien als echt wahrnehmen. Das World Economic Forum warnt, dass KI-gesteuerte Falschinformationen, die die Demokratie untergraben und die soziale Polarisierung vertiefen können, ein unmittelbares Risiko für die globale Wirtschaft darstellen. Indien ist aufgrund niedriger digitaler Literacy und der schwindenden Legitimität traditioneller Medien besonders anfällig für diese Probleme.
Regulierung synthetischer Medien
Die Regulierung, die darauf abzielt, die Schäden durch synthetische Medien zu adressieren, entwickelt sich weltweit weiter. Der AI Act der Europäischen Union klassifiziert Deepfakes als eine „eingeschränkte Risiko“-Kategorie, die Transparenzoffenlegungen erfordert. In den Vereinigten Staaten wurden Gesetze vorgeschlagen, die spezifische Probleme ansprechen, wie den DEFIANCE Act für nicht einvernehmliche explizite Deepfakes und den No AI FRAUD Act, um persönliche Abbildungen zu schützen. Das Take It Down Act, das letzten Monat von Präsident Donald Trump unterzeichnet wurde, zielt darauf ab, die Entfernung nicht einvernehmlicher intimer synthetischer Medien sicherzustellen. Das Online Safety Act des Vereinigten Königreichs kriminalisiert die Erstellung intimer Deepfakes und auferlegt Verpflichtungen an soziale Medienplattformen. Auch Indiens MeitY hat eine Beratung herausgegeben, um Deepfakes zu kennzeichnen.
Vertrauen, Privatsphäre, Verantwortung
Die aufkommenden Vorschriften zur Bekämpfung der Schäden durch synthetische Medien sind größtenteils reaktiv und konzentrieren sich auf Maßnahmen wie die Entfernung von sozialen Medienplattformen und die Identifizierung synthetischer Inhalte. Diese Maßnahmen allein beseitigen jedoch nicht die Erstellung böswilliger synthetischer Medien und deren damit verbundene Schäden. Selbst wenn die Medien klar als künstlich gekennzeichnet sind, können sie dennoch realen Schaden anrichten. Beispielsweise könnte eine Frau, die in nicht einvernehmlichem, KI-generiertem pornografischem Material dargestellt wird, weiterhin Scham, sexuelle Objektivierung und Stress erleben, selbst wenn die Medien einen Disclaimer enthalten, der besagt, dass sie synthetisch sind.
Das Verlassen auf Kennzeichnungstools birgt mehrere operationale Herausforderungen. Erstens fehlt es Kennzeichnungstools oft an Genauigkeit. Dies schafft ein Paradox: Ungenaue Kennzeichnungen können schädliche Medien legitimieren, während unbeschriftete Inhalte als vertrauenswürdig erscheinen können. Zudem könnten Nutzer grundlegende KI-Änderungen, wie Farbkorrekturen, nicht als Manipulation ansehen, während die Meinungen über Änderungen wie Gesichtsveränderungen oder Filter variieren. Es bleibt unklar, ob einfache Farbänderungen eine Kennzeichnung erfordern oder ob die Kennzeichnung nur erfolgen sollte, wenn die Medien substanziell verändert oder mithilfe von KI generiert wurden.
Haftung neu überdenken
Die Governance synthetischer Medien muss kontextspezifisch sein, da die Legalität und Angemessenheit von KI-generierten Inhalten oft davon abhängen, wann und wo sie verwendet werden. Ein Beispiel aus einem Fall kann nicht willkürlich auf alle Situationen angewendet werden. Ein Lehrer, der generative KI verwendet, um synthetische Medien für eine Bildungsstunde über Hassrede zu erstellen, handelt möglicherweise nicht illegal, gegeben den Kontext und die Absicht. Wenn jedoch jemand generative KI verwendet, um Gewalt zu propagieren, sind die Implikationen weitaus ernsthafter.
Auf der Grundlage von gemeinsam entwickelten Risiko-Klassifikationen und Schadensprinzipien sollten Codes und Standards erstellt und verpflichtend für die Integration über den gesamten Lebenszyklus von KI-Systemen gemacht werden. Beispielsweise sollten KI-Systeme Sicherheitscodes und Sicherheitsstandards als nicht verhandelbare Basiserfordernisse integrieren, unabhängig von ihrem offensichtlichen Risikoprofil.
Entwicklung eines kollaborativen Rahmens
Das Verlassen auf freiwillige Verpflichtungen schafft erhebliche Probleme, da es keine bindenden Verpflichtungen etabliert und die Operationen von KI-Systemen intransparent lässt. Die vorgeschlagene Indian AI Safety Institute (AISI) sollte eine aktive Rolle bei der Förderung eines iterativen, kollaborativen Prozesses für die Governance generativer KI spielen, indem sie die Zivilgesellschaft, Akademiker, die Industrie und Experten einbezieht. Die AISI sollte empirische Bewertungen von KI-Modellen und -Systemen durchführen, um Sicherheitsstandards zu entwickeln und Benchmark-Tests zu etablieren, die sich auf Erklärbarkeit, Interpretierbarkeit und Verantwortung konzentrieren.
Ein solch koordinierter Ansatz würde frühe Indikatoren für aufkommende Bedrohungen liefern und eine anpassungsfähige, kontextsensible Governance im sich schnell entwickelnden Bereich der generativen KI unterstützen.