Transparenz im Umgang mit KI-generierten Inhalten: Der neue Code der EU

AI Office veröffentlicht ersten Entwurf eines Verhaltenskodex zur Transparenz von KI-generierten Inhalten

Das EU-AI-Büro hat seinen ersten Entwurf eines Verhaltenskodex zur Transparenz von KI-generierten Inhalten veröffentlicht. Dieser Kodex bietet freiwillige Richtlinien zur Kennzeichnung und Markierung von KI-Ausgaben (Audio, Bild, Video oder Text), um sicherzustellen, dass die Nutzer wissen, wann Inhalte von KI erstellt oder manipuliert wurden. Dies steht im Einklang mit den Verpflichtungen gemäß Artikel 50 des KI-Gesetzes, das im August 2026 in Kraft treten wird.

Verpflichtungen der Anbieter von KI-Systemen

Markierung: Anbieter von KI-Systemen müssen sicherstellen, dass die Ausgaben in einem maschinenlesbaren Format gekennzeichnet sind und als künstlich generiert oder manipuliert erkennbar sind. Inhalte, die von KI generiert oder manipuliert wurden, müssen mit einem nicht wahrnehmbaren Wasserzeichen versehen sein.

Die Kennzeichnungen auf KI-generierten Inhalten müssen erhalten bleiben und dürfen nicht verändert werden, wenn solche Inhalte als Eingabe verwendet und anschließend transformiert werden.

Erkennung: Um die Ausgaben erkennbar zu machen, müssen die Anbieter von KI-Systemen den Nutzern und anderen Dritten die Erkennung ermöglichen. Sie müssen kostenlos eine Schnittstelle oder öffentlich verfügbare Detektoren bereitstellen, um zu überprüfen, ob ein Inhalt von ihren KI-Systemen generiert oder manipuliert wurde. Diese Erkennungsmethoden müssen während des gesamten Lebenszyklus des Systems und Modells aufrechterhalten werden.

Anbieter von KI-Systemen sind eingeladen, forensische Erkennungsmethoden zu implementieren, die nicht von aktiven KI-Kennzeichnungen abhängen.

Die von den Anbietern geförderten technischen Lösungen sollten effektiv, kostengünstig und in der Lage sein, in Echtzeit zu funktionieren, ohne die Qualität der generierten Inhalte zu beeinträchtigen. Sie müssen interoperabel, robust (die Kennzeichnungstechniken müssen gängigen Änderungen wie Zuschneiden, Kompression, Änderungen der Auflösung oder des Formats standhalten) und zuverlässig sein.

Verpflichtungen der Anwender von KI-Systemen

Die Verpflichtungen der Anwender ergänzen die technischen Lösungen, die von den Anbietern implementiert werden, und tragen zur Erhöhung der Transparenz entlang der KI-Wertschöpfungskette bei.

Anwender eines KI-Systems, das Texte generiert oder manipuliert, die veröffentlicht werden, um die Öffentlichkeit über relevante Themen zu informieren, oder das Audio, Bilder oder Videos (Deepfakes) generiert oder manipuliert, müssen offenlegen, dass die Inhalte von KI erzeugt oder manipuliert wurden.

Die Anwender müssen KI-generierte und manipulierte Inhalte identifizieren, indem sie ein gemeinsames Symbol an einer sichtbaren und konsistenten Stelle platzieren. Dieses Symbol ist noch nicht entwickelt, bis es verfügbar ist, können Anwender ein vorübergehendes Symbol verwenden, das aus einem zweibuchstabigen Akronym für künstliche Intelligenz besteht.

Besondere Maßnahmen zur Offenlegung von Deepfakes

Für Echtzeit-Deepfake-Videos müssen Anwender das Symbol nicht intrusiv und konsistent während der gesamten Präsentation anzeigen, wo dies möglich ist. Darüber hinaus wird zu Beginn der Präsentation ein Disclaimer eingefügt, der erklärt, dass die angezeigten Inhalte Deepfake umfassen.

Für nicht-echtzeit Deepfake-Videos dürfen Anwender einen Disclaimer zu Beginn der Präsentation einfügen oder das Symbol konsistent an einem geeigneten festen Ort während der Präsentation platzieren.

Bezüglich Deepfake-Inhalten, die Teil von offensichtlich künstlerischen, kreativen, satirischen oder fiktiven Arbeiten sind, können Anwender das Symbol für mindestens fünf Sekunden anzeigen. Bei Videos, die Teil solcher Arbeiten sind, muss das Symbol für eine „ausreichende Zeit“ erscheinen.

Für Deepfake-Bilder platzieren die Unterzeichner das gemeinsame Symbol konstant an jedem Exponat an einem festen Ort.

Deepfake-Audio wird einen kurzen hörbaren Disclaimer in einfacher, verständlicher Sprache enthalten, der den künstlichen Ursprung des Deepfake-Audios offenlegt (nur zu Beginn des Inhalts, wenn er kürzer als 30 Sekunden ist, und wiederholt für längere Formate). Für Deepfake-Inhalte, die Teil von offensichtlich künstlerischen Arbeiten sind, sollte ein nicht intrusiver hörbarer Disclaimer spätestens beim ersten Exponat eingefügt werden, ohne dass eine Wiederholung erforderlich ist.

Besondere Maßnahmen für KI-generierte oder manipulierte Texte

Für KI-generierte oder manipulierte Texte, die veröffentlicht werden, um die Öffentlichkeit über relevante Themen zu informieren, muss das Symbol an einem festen, klaren und unterscheidbaren Ort angezeigt werden. Dieser feste Platz könnte beispielsweise das Platzieren des Symbols oben im Text, neben dem Text, im Kolophon oder nach dem letzten Satz des Textes umfassen.

Haftungsausschluss: Aufgrund der Allgemeinheit dieses Updates kann die hier bereitgestellte Information nicht in allen Situationen anwendbar sein und sollte nicht ohne spezifische rechtliche Beratung basierend auf besonderen Situationen befolgt werden.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...