Transparenz bei KI: Debatte über Täuschungsabsicht und Kennzeichnung

AI-Transparenz: Debatten über „betrügerische Absicht“

Vorgeschlagene Regeln zur Kennzeichnung von KI-Deepfakes, die im Rahmen eines Transparenzkodexes entwickelt werden, der mit dem KI-Gesetz verbunden ist, spalten die Experten, die am EU-Entwurfsprozess beteiligt sind.

Gemäß dem KI-Gesetz der EU müssen Unternehmen sicherstellen, dass KI-generierte Inhalte – Bilder, Videos, Audios – mit Wasserzeichen versehen werden, die die Rolle der KI bei ihrer Erstellung offenlegen. Wenn ein KI-System verwendet wird, um einen Deepfake zu erstellen, wie etwa ein Video, das anscheinend eine echte Person zeigt, muss es als synthetisch gekennzeichnet werden, um das Risiko der Täuschung zu vermeiden.

Herausforderungen bei der Kennzeichnung

Obwohl das Prinzip einfach klingt, ist die Ausarbeitung klarer Regeln für eine solche Kennzeichnung mit feinen Entscheidungen verbunden. Insbesondere zeichnet sich ein Konflikt zwischen Interessenvertretern der Industrie und zivilgesellschaftlichen Gruppen ab, wo die EU die Grenze ziehen sollte, wenn es um die Kennzeichnung von Inhalten geht, die KI-verbessert oder -generiert sind. Ziel des Verhaltenskodexes ist es, Unternehmen praktische Ratschläge zur Einhaltung der Transparenzregeln des KI-Gesetzes zu geben, die ursprünglich im August 2026 in Kraft treten sollten.

Der erste Entwurf

Ein erster Entwurf des Kodexes, der vor Weihnachten veröffentlicht wurde, scheint sich in Richtung der zivilgesellschaftlichen Position zu bewegen. Unabhängige Experten, die den Prozess leiten, unterstützen die Kennzeichnung selbst von „scheinbar kleinen“ Änderungen, die den Kontext von Inhalten verändern, wie etwa die Verwendung von KI-Tools zur Rauschunterdrückung in einer Audioaufnahme.

Industrievertreter äußerten jedoch Bedenken gegen solch umfassende Wasserzeichen-Regeln und argumentierten, dass sie dazu führen würden, dass Labels überall auftauchen und somit ihre Warnwirkung verwässern würden. Besonders betroffen könnten bestimmte Branchen sein, wie die Werbung.

Betrügerische Absicht

Die zentrale Frage in den jüngsten Gesprächen über den Kodex war, ob „betrügerische Absicht“ berücksichtigt werden sollte, wenn es darum geht, ob Inhalte gekennzeichnet werden müssen. Das KI-Gesetz selbst bezieht sich nur allgemein auf „künstlich erzeugte oder manipulierte“ Inhalte.

Zukünftige Entwicklungen

Der entstehende Transparenzkodex ist die zweite Leitlinie des KI-Gesetzes – nach dem im letzten Jahr viel beachteten Kodex für allgemeine KI-Modelle. Wie beim GPAI-Kodex wird der endgültige Kodex freiwillig sein: Unternehmen können wählen, ob sie sich anmelden möchten. Diejenigen, die dies tun, werden jedoch wahrscheinlich als im Einklang mit den besten Praktiken angesehen, was ihnen Punkte bei einer formalen Bewertung der Einhaltung des KI-Gesetzes einbringen dürfte.

Unabhängige Experten leiten den Prozess zur Erstellung dieser Kodizes, wobei Interessenvertreter aus Industrie und Zivilgesellschaft Input geben oder in Meinungsverschiedenheiten aufeinandertreffen, wie es im Fall des Transparenzkodex-Entwurfs zu sein scheint.

Ähnliche Diskussionen finden auch hinsichtlich separater Regeln statt, die von KI-Systemen verlangen, ein maschinenlesbares Wasserzeichen auf die von ihnen generierten Inhalte anzuwenden. Dies wird für alle KI-Inhalte gelten, nicht nur für Deepfakes, und wird Verpflichtungen für Entwickler von KI-Systemen festlegen, nicht nur für deren Anwender.

Verzögerungen in der Umsetzung

Unabhängig von der endgültigen Form des Transparenzkodexes werden Unternehmen wahrscheinlich mehr Zeit für die Einhaltung der Wasserzeichen-Regeln des KI-Gesetzes erhalten: Die Kommission hat vorgeschlagen, deren Anwendung auf Februar 2027 zu verschieben für KI-Systeme, die vor August 2026 veröffentlicht werden.

Die endgültige Antwort auf die derzeit in den Stakeholder-Diskussionen über den Transparenzkodex aufgeworfenen Fragen könnte jedoch die Erstellung eines separaten Dokuments durch die Kommission erfordern. Theoretisch soll der Transparenzkodex nur praktische Details zur Umsetzung der EU-Regeln liefern – die Kommission arbeitet selbst an separaten Leitlinien, die den Geltungsbereich und die rechtlichen Definitionen der Regeln ansprechen.

Dieses kommende Dokument könnte einige Schlüsselbegriffe klären, die für die Diskussionen über den Transparenzkodex von Bedeutung sind. Es wird jedoch erst im Juni erwartet, rund um die Zeit, zu der der Verhaltenskodex finalisiert werden soll.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...