AI Office veröffentlicht ersten Entwurf eines Verhaltenskodex zur Transparenz von KI-generierten Inhalten
Das EU-AI-Büro hat seinen ersten Entwurf eines Verhaltenskodex zur Transparenz von KI-generierten Inhalten veröffentlicht. Dieser Kodex bietet freiwillige Richtlinien zur Kennzeichnung und Markierung von KI-Ausgaben (Audio, Bild, Video oder Text), um sicherzustellen, dass die Nutzer wissen, wann Inhalte von KI erstellt oder manipuliert wurden. Dies steht im Einklang mit den Verpflichtungen gemäß Artikel 50 des KI-Gesetzes, das im August 2026 in Kraft treten wird.
Verpflichtungen der Anbieter von KI-Systemen
Markierung: Anbieter von KI-Systemen müssen sicherstellen, dass die Ausgaben in einem maschinenlesbaren Format gekennzeichnet sind und als künstlich generiert oder manipuliert erkennbar sind. Inhalte, die von KI generiert oder manipuliert wurden, müssen mit einem nicht wahrnehmbaren Wasserzeichen versehen sein.
Die Kennzeichnungen auf KI-generierten Inhalten müssen erhalten bleiben und dürfen nicht verändert werden, wenn solche Inhalte als Eingabe verwendet und anschließend transformiert werden.
Erkennung: Um die Ausgaben erkennbar zu machen, müssen die Anbieter von KI-Systemen den Nutzern und anderen Dritten die Erkennung ermöglichen. Sie müssen kostenlos eine Schnittstelle oder öffentlich verfügbare Detektoren bereitstellen, um zu überprüfen, ob ein Inhalt von ihren KI-Systemen generiert oder manipuliert wurde. Diese Erkennungsmethoden müssen während des gesamten Lebenszyklus des Systems und Modells aufrechterhalten werden.
Anbieter von KI-Systemen sind eingeladen, forensische Erkennungsmethoden zu implementieren, die nicht von aktiven KI-Kennzeichnungen abhängen.
Die von den Anbietern geförderten technischen Lösungen sollten effektiv, kostengünstig und in der Lage sein, in Echtzeit zu funktionieren, ohne die Qualität der generierten Inhalte zu beeinträchtigen. Sie müssen interoperabel, robust (die Kennzeichnungstechniken müssen gängigen Änderungen wie Zuschneiden, Kompression, Änderungen der Auflösung oder des Formats standhalten) und zuverlässig sein.
Verpflichtungen der Anwender von KI-Systemen
Die Verpflichtungen der Anwender ergänzen die technischen Lösungen, die von den Anbietern implementiert werden, und tragen zur Erhöhung der Transparenz entlang der KI-Wertschöpfungskette bei.
Anwender eines KI-Systems, das Texte generiert oder manipuliert, die veröffentlicht werden, um die Öffentlichkeit über relevante Themen zu informieren, oder das Audio, Bilder oder Videos (Deepfakes) generiert oder manipuliert, müssen offenlegen, dass die Inhalte von KI erzeugt oder manipuliert wurden.
Die Anwender müssen KI-generierte und manipulierte Inhalte identifizieren, indem sie ein gemeinsames Symbol an einer sichtbaren und konsistenten Stelle platzieren. Dieses Symbol ist noch nicht entwickelt, bis es verfügbar ist, können Anwender ein vorübergehendes Symbol verwenden, das aus einem zweibuchstabigen Akronym für künstliche Intelligenz besteht.
Besondere Maßnahmen zur Offenlegung von Deepfakes
Für Echtzeit-Deepfake-Videos müssen Anwender das Symbol nicht intrusiv und konsistent während der gesamten Präsentation anzeigen, wo dies möglich ist. Darüber hinaus wird zu Beginn der Präsentation ein Disclaimer eingefügt, der erklärt, dass die angezeigten Inhalte Deepfake umfassen.
Für nicht-echtzeit Deepfake-Videos dürfen Anwender einen Disclaimer zu Beginn der Präsentation einfügen oder das Symbol konsistent an einem geeigneten festen Ort während der Präsentation platzieren.
Bezüglich Deepfake-Inhalten, die Teil von offensichtlich künstlerischen, kreativen, satirischen oder fiktiven Arbeiten sind, können Anwender das Symbol für mindestens fünf Sekunden anzeigen. Bei Videos, die Teil solcher Arbeiten sind, muss das Symbol für eine „ausreichende Zeit“ erscheinen.
Für Deepfake-Bilder platzieren die Unterzeichner das gemeinsame Symbol konstant an jedem Exponat an einem festen Ort.
Deepfake-Audio wird einen kurzen hörbaren Disclaimer in einfacher, verständlicher Sprache enthalten, der den künstlichen Ursprung des Deepfake-Audios offenlegt (nur zu Beginn des Inhalts, wenn er kürzer als 30 Sekunden ist, und wiederholt für längere Formate). Für Deepfake-Inhalte, die Teil von offensichtlich künstlerischen Arbeiten sind, sollte ein nicht intrusiver hörbarer Disclaimer spätestens beim ersten Exponat eingefügt werden, ohne dass eine Wiederholung erforderlich ist.
Besondere Maßnahmen für KI-generierte oder manipulierte Texte
Für KI-generierte oder manipulierte Texte, die veröffentlicht werden, um die Öffentlichkeit über relevante Themen zu informieren, muss das Symbol an einem festen, klaren und unterscheidbaren Ort angezeigt werden. Dieser feste Platz könnte beispielsweise das Platzieren des Symbols oben im Text, neben dem Text, im Kolophon oder nach dem letzten Satz des Textes umfassen.
Haftungsausschluss: Aufgrund der Allgemeinheit dieses Updates kann die hier bereitgestellte Information nicht in allen Situationen anwendbar sein und sollte nicht ohne spezifische rechtliche Beratung basierend auf besonderen Situationen befolgt werden.