KI-generierte Inhalte: Die Brücke zwischen Transparenz und Realität

Die digitale Welt ringt mit einem transformativen Wandel: dem Aufstieg der künstlichen Intelligenz, die in der Lage ist, bemerkenswert realistische Inhalte zu generieren. Diese bahnbrechende Technologie bietet zwar ein beispielloses kreatives Potenzial, birgt aber auch erhebliche Risiken. Von der Erosion des Vertrauens in Online-Informationen bis hin zum Potenzial für böswillige Manipulationen sind die gesellschaftlichen Auswirkungen tiefgreifend. Da Jurisdiktionen weltweit beginnen, diese Herausforderungen anzugehen, ist das Verständnis der Komplexität von KI-generierten Inhalten und der Maßnahmen, die zur Minderung ihrer Schäden entwickelt werden, von entscheidender Bedeutung. Diese Analyse befasst sich mit der aufkommenden Landschaft der KI-Transparenz und untersucht die technischen und praktischen Hürden, die vor uns liegen, um eine vertrauenswürdige digitale Umgebung zu gewährleisten.

Welche Risiken und Herausforderungen sind mit KI-generierten Inhalten verbunden, und wie reagieren die Gerichtsbarkeiten darauf?

Der Aufstieg generativer KI hat die Grenzen zwischen authentischen und synthetischen Inhalten verwischt und gesellschaftliche Risiken geschaffen, insbesondere durch realistische Deepfakes. Diese Erosion des Vertrauens veranlasst Gerichtsbarkeiten, wie die EU, dazu, KI-Transparenzbestimmungen einzuführen.

Wasserzeichen, maschinenlesbare Markierungen und sichtbare Offenlegungen entwickeln sich zu Schlüsselmechanismen zur Bekämpfung dieser Risiken. Es bestehen jedoch widersprüchliche Anreize, da Anbieter möglicherweise den Nutzern die Möglichkeit bieten möchten, Inhalte ohne Anzeichen von Künstlichkeit zu erstellen. Der Modellkollaps, bei dem das Training mit synthetischen Daten die KI-Qualität beeinträchtigt, fügt eine weitere Komplexitätsebene hinzu. Social-Media-Plattformen sind auch für die Verbreitung schädlicher KI-generierter Inhalte haftbar.

Der EU AI Act schreibt zwei wesentliche Schutzmaßnahmen vor:

  • Maschinenlesbare Wasserzeichen, die die Erkennung generierter oder manipulierter Inhalte erleichtern.
  • Sichtbare Offenlegungen von Deepfakes, um ihren künstlichen Ursprung explizit offenzulegen.

Die Nichteinhaltung zieht erhebliche Strafen nach sich, die bis zu 15 Millionen Euro oder 3 % des weltweiten Umsatzes betragen können. Die Regeln gelten ab dem 1. August 2026. Trotz guter Absichten bestehen weiterhin Unklarheiten bei der Zuweisung der Verantwortung innerhalb der KI-Lieferkette, und Definitionen (wie „Deepfake“) bedürfen der Klärung.

Wesentliche Herausforderungen & Risiken:

  • Erosion des Vertrauens: Die einfache Erstellung überzeugender synthetischer Inhalte untergräbt das Vertrauen in Medien und Informationsquellen.
  • Widersprüchliche Anreize: KI-Anbieter müssen das Bedürfnis der Kunden nach uneingeschränkter Kreativität mit den gesellschaftlichen Bedürfnissen nach Transparenz in Einklang bringen.
  • Modellkollaps: KI-Training mit KI-generierten Inhalten, das die Modellqualität beeinträchtigt, ist ein ernstes Problem für KI-Entwickler.
  • Haftung: Social-Media-Plattformen stehen unter erhöhtem Druck, Deepfakes zu verwalten und zu kennzeichnen, was zu Haftungsbedenken führt.
  • Unklarheiten in den Vorschriften: Der AI Act benötigt klarere Leitlinien für die Anwendung von Wasserzeichen und Offenlegungspflichten, insbesondere in komplexen KI-Lieferketten.

Was sind die Kernideen der generativen KI-Lieferkette?

Die Landschaft der generativen KI, insbesondere bei Text-zu-Bild-Systemen, umfasst eine komplexe Lieferkette mit miteinander verbundenen Schritten und vielfältigen Teilnehmern. Eine vereinfachte Sichtweise identifiziert vier Hauptakteure:

  • Basismodellentwickler: Erstellen die grundlegenden KI-Modelle, die riesige Datenmengen und Rechenressourcen benötigen. Beispiele sind OpenAI (DALL-E 3) und Stability AI (Stable Diffusion).
  • Downstream-Entwickler: Feinabstimmung von Basismodellen für spezifische Anwendungen (z. B. künstlerische Stile). Sie können diese Modelle gegen Gebühr oder über Open-Source-Plattformen (z. B. Juggernaut XL) vertreiben.
  • Systemanbieter: Wandeln Modelle in funktionierende Systeme mit Benutzeroberflächen (Web, Mobile, Desktop) um. Sie bieten oft Zugang für Endnutzer (Deployer), können aber unterschiedliche Grade der Freigabe und Integration implementieren.
  • System Deployer: Stellen KI-Systeme für Endnutzer bereit. In vielen Fällen fungiert der Systemanbieter auch als Deployer.

Regulierungsbedenken und das EU-KI-Gesetz

Das EU-KI-Gesetz führt Transparenzanforderungen für generative KI ein, insbesondere in Bezug auf Wasserzeichen und die Offenlegung von KI-generierten Inhalten (insbesondere Deepfakes). Artikel 50 schreibt Folgendes vor:

  • Maschinenlesbare Kennzeichnungen in KI-generierten Ausgaben zur automatischen Erkennung synthetischer Inhalte. Diese Kennzeichnungen sollten wirksam, interoperabel, robust und zuverlässig sein. Dies kann durch Wasserzeichen, Metadaten-IDs, kryptografische Methoden, Protokollierung oder Fingerprinting-Techniken erreicht werden.
  • Sichtbare Offenlegung, dass Inhalte künstlich erzeugt oder manipuliert wurden, insbesondere wenn es sich um einen „Deepfake“ handelt, den das KI-Gesetz als KI-generierten Inhalt definiert, der vorhandenen Personen, Objekten, Orten, Entitäten oder Ereignissen ähnelt und einer Person fälschlicherweise als authentisch oder wahrheitsgemäß erscheint. Diese Information muss deutlich am Punkt der ersten Interaktion dargestellt werden.

Die Vorschriften gelten für KI-Systeme (Apps, Web-Tools), nicht nur für die zugrunde liegenden Modelle. Nichteinhaltung kann zu Strafen von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes führen. Diese Regeln treten am 1. August 2026 in Kraft.

Praktische Implikationen und Herausforderungen bei der Umsetzung

Das KI-Gesetz führt zu Komplexitäten bei der Zuweisung von Verantwortlichkeiten entlang der Lieferkette. Es ist nicht immer klar, ob die Last der Compliance angemessen verteilt ist, z. B. bei KI-Modellen, die über eine API aktiviert werden.

Deployment-Szenarien können variieren, was zu unterschiedlichen Ansätzen für die Wasserzeichensetzung führt. Das Dokument identifiziert 4 solcher Szenarien:

  • End-to-End integrierte Systeme
  • Systeme, die API-Modellzugriff nutzen
  • Open-Source-Systeme, die auf Hugging Face bereitgestellt werden
  • Systeme, die andere (Open-Source-)Modelle unter ihrer eigenen Marke verwenden

Die sichtbare Kennzeichnung von *nur* Deepfakes ist eine weitere praktische Hürde im Rahmen des KI-Gesetzes. Um Deepfakes präzise zu erkennen, benötigen Anbieter separate NLP-basierte Lösungen zur Prompt-Klassifizierung. Dies wirft Bedenken auf, insbesondere für kleinere Organisationen.

Die Implementierung effektiver Compliance-Mechanismen birgt Herausforderungen bei der Überprüfung von „Nicht-Wahrheit“ (Erkennung von KI-generierten Inhalten) und der Gewährleistung robuster, interoperabler Lösungen. Angesichts der wachsenden Anzahl von KI-Bildgenerierungstools werden automatisierte Compliance-Inspektionsmethoden und Drittanbieterlösungen für eine effektive Durchsetzung unerlässlich sein.

Wie behandelt das EU-KI-Gesetz Wasserzeichen und Offenlegung für KI-generierte Inhalte?

Das EU-KI-Gesetz, dessen Durchsetzung ab dem 1. August 2026 geplant ist, führt wichtige Transparenzpflichten für generative KI-Systeme ein, insbesondere in Bezug auf Wasserzeichen und Offenlegung.

Gesetzliche Anforderungen

  • Maschinenlesbares Wasserzeichen: Artikel 50(2) schreibt vor, dass Anbieter von generativen KI-Systemen sicherstellen, dass ihre Ausgaben in einem maschinenlesbaren Format gekennzeichnet sind, das als künstlich erzeugt oder manipuliert erkennbar ist. Das Gesetz betont, dass technische Lösungen wirksam, interoperabel, robust und zuverlässig sein müssen.
  • Sichtbare Offenlegung für Deep Fakes: Artikel 50(4) verpflichtet die Anwender von generativen KI-Systemen, offenzulegen, wenn sie Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren, die einen „Deep Fake“ darstellen. Diese Offenlegung muss zum Zeitpunkt der ersten Interaktion oder Exposition klar und erkennbar sein.

Die Vorschriften legen keine genauen Methoden für die Umsetzung sichtbarer Offenlegungen fest, betonen aber die Notwendigkeit einer klaren Kennzeichnung innerhalb des KI-generierten Outputs selbst und nicht einer separaten Nachricht. Die Strafen für Nichteinhaltung können bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes betragen.

Unklarheiten und Herausforderungen bei der Umsetzung

Die Formulierung des KI-Gesetzes lässt Raum für Interpretationen, insbesondere in Bezug auf die Zuweisung von Verantwortung entlang der komplexen Lieferkette für generative KI. Auch die Definition von „Deep Fake“ stellt eine Herausforderung dar.

Begrenzter Umfang für Modellentwickler

Die Transparenzanforderungen gelten ausdrücklich für KI-Systeme (z. B. Apps oder Webtools), nicht für die zugrunde liegenden Basismodelle.

Obwohl der zweite Entwurf des Verhaltenskodex für GPAI-Modelle eine Verpflichtung für Anbieter von GPAI-Modellen mit systemischen Risiken beinhaltet, Methoden wie Wasserzeichen zur Identifizierung und Meldung von Vorfällen im Zusammenhang mit der Nutzung ihres Modells zu verwenden.

Ausnahmen

Bemerkenswerterweise sind Anbieter von KI-Systemen, die unter freien und Open-Source-Lizenzen veröffentlicht werden, im Gegensatz zu einigen anderen Abschnitten nicht von diesen Transparenzanforderungen gemäß Artikel 50 des KI-Gesetzes ausgenommen. Dies ist entscheidend für die Umsetzung des Gesetzes im gesamten Ökosystem.

german

Welche Methodik wurde zur Analyse der praktischen Implementierung von Wasserzeichen verwendet?

Um die tatsächliche Verbreitung von Wasserzeichen und Offenlegungspraktiken zu beurteilen, wurde ein mehrgleisiger Ansatz verwendet, der 50 weit verbreitete generative KI-Systeme analysierte.

Auswahl der KI-Systeme

Eine vielfältige Auswahl von 50 generativen KI-Systemen wurde auf der Grundlage verschiedener Geschäftsmodelle und Vertriebskanäle zusammengestellt, die die vier Bereitstellungskategorien widerspiegeln: durchgängig integrierte Systeme, Systeme mit API-Modellzugriff, Open-Source-Systeme, die auf Hugging Face bereitgestellt werden, und Systeme, die andere (Open-Source-)Modelle unter ihrem eigenen Warenzeichen verwenden. Die Systeme in Kategorie 1 wurden ausgewählt, indem die Stanford Foundation Models Ökosystem-Tabelle [26] gefiltert und Organisationen ausgewählt wurden, die kostenlose Bildgenerierungstools mit ihren eigenen Basismodellen anbieten. Die Systeme in Kategorie 3 wurden ausgewählt, indem der Hugging Face ‚Modell‘-Bereich nach den fünf am häufigsten heruntergeladenen Open-Source-Text-zu-Bild-Generierungsmodellen gefiltert wurde, die das Hugging Face API-Widget-Tool [21] anboten. Die web- und mobilbasierten Systeme der Kategorien 2 und 4 wurden anhand der Suchanfrage „KI-Bildgenerierung“ im Apple App Store und in der Google Suche ausgewählt. Die Top 14 Systeme aus jeder Modalität (insgesamt 28), die eine kostenlose Text-zu-Bild-Generierung anboten (falls erforderlich: durch Verwendung eines Kontos oder durch Starten einer kostenlosen Testversion), wurden berücksichtigt.

Bildgenerierung

Für jedes ausgewählte System wurden mindestens zwei Bilder generiert. Es wurden Standardeinstellungen mit einem neutralen Prompt („Ein Doktorand“) und einem potenziell riskanten „Deep Fake“-Prompt („Ein wunderschönes Deep-Fake-Foto von Donald Trump in McDonald’s“) verwendet. Ziel war es, zu evaluieren, ob Wasserzeichen speziell auf Inhalte angewendet wurden, die als potenzieller Deepfake gekennzeichnet waren. Generierte Bilder wurden über die Option „Speichern“ oder „Herunterladen“ in der Systemschnittstelle gespeichert.

Wasserzeichen- und Offenlegungserkennung

Die Evaluationsmetriken konzentrierten sich auf maschinenlesbare Kennzeichnungen und sichtbare Offenlegungen. Eine Kombination von Techniken, wie unten aufgeführt, wurde verwendet, um ihre Einführung zu identifizieren:

  • Dokumentationsanalyse: Die Systemdokumentation (App-Beschreibungen, FAQs, Nutzungsbedingungen, Datenschutzrichtlinien und ReadMe-Dateien) wurde überprüft, um alle Angaben in Bezug auf Wasserzeichen, Metadatennutzung oder digitale Fingerabdruckverfahren zu identifizieren.
  • Codeanalyse: Für Open-Source-Systeme (hauptsächlich Kategorien 2 und 3) wurden Modellinformationsseiten und Quellcode auf Hugging Face und GitHub auf Erwähnungen von Wasserzeichen-Bibliotheken, Erkennungstools oder Metadatenanpassungen untersucht.
  • Bildinspektion:

    Es wurden Tools eingesetzt, um die generierten Bilder zu untersuchen:

    • Metadaten: Ein Online-Tool zur Metadateninspektion wurde verwendet, um Metadaten aus den Standards EXIF, IPTC und XMP zu extrahieren und zu analysieren, wobei nach Erwähnungen der KI-Generierung gesucht wurde.
    • Wasserzeichen: Wenn Wasserzeichenlösungen und Erkennungstools in der Dokumentation oder Codeanalyse gefunden wurden, wurde das entsprechende Erkennungstool auf die Bilder angewendet. Für Googles Wasserzeichen [28] und die Open-Source-Wasserzeichenbibliothek, die von Stability AI und Black Forest Labs verwendet wird [10, 48, 51], wurden öffentliche Erkennungstools verwendet. Ein Algorithmus wurde erstellt, um die genannten öffentlichen Erkennungstools auf allen generierten Bildern auszuführen.
    • Digitales Fingerprinting: Die C2PA-Spezifikation, ein Industriestandard für Provenienz, wurde analysiert [25, 43]. Das C2PA-Erkennungstool wurde verwendet, um das Vorhandensein eines digitalen Fingerabdrucks, einer Metadateneinbettung oder eines Wasserzeichens zu überprüfen.
  • Manuelle Inspektionen: Manuelle Überprüfungen verifizierten sichtbare Wasserzeichen und Offenlegungen, die auf KI-generierte Inhalte sowohl bei neutralen als auch bei Deep-Fake-Prompts hinwiesen. Der Fokus lag darauf, ob sichtbare Markierungen auf Deepfakes beschränkt waren, und nicht darauf, zu beurteilen, ob Bilder als „Deepfake“ qualifiziert waren.

german

Was sind die wichtigsten Ergebnisse der empirischen Analyse zu Watermarking-Praktiken?

Unsere Untersuchung von 50 weit verbreiteten generativen KI-Bildsystemen zeigt eine Landschaft, die sich noch in den Kinderschuhen befindet, was die Einführung von Watermarking betrifft, insbesondere im Hinblick auf den Geltungsbeginn des EU AI Act im August 2026. Die Studie zielte in erster Linie nicht darauf ab, die aktuelle Compliance zu bewerten, sondern den Stand von maschinenlesbaren Watermarking- und sichtbaren Offenlegungslösungen sowie die Hürden bei der Implementierung und Durchsetzung von Vorschriften in Bezug auf diese aufzuzeigen.

Hier sind die wichtigsten Ergebnisse:

  • Begrenzte Implementierung von maschinenlesbaren Wasserzeichen: Nur eine Minderheit der Systeme (18 von 50) enthält eine Form von maschinenlesbarem Wasserzeichen.
  • Metadaten-Einbettungen sind üblich, aber nicht robust: Während Metadaten die am häufigsten verwendete Methode sind, lassen sie sich leicht entfernen, was sie zu einer weniger robusten Lösung macht. Zehn Systeme nutzten diesen Ansatz.
  • Versteckte Wasserzeichen sind selten: Hochentwickelte versteckte Watermarking-Techniken finden sich nur in einer kleinen Teilmenge von Systemen (6).
  • Sichtbare Offenlegungen sind ebenfalls selten: Nur 8 von 50 Systemen verwendeten sichtbare Wasserzeichen oder andere Offenlegungslösungen, die in das Bild eingebettet sind, um dessen KI-generierte Natur anzuzeigen.
  • End-to-End-Systeme sind führend bei der Implementierung: Maschinenlesbare Markierungslösungen sind bei End-to-End-Anbietern (Kategorie 1) und großen Anbietern (Kategorie 2) weiter verbreitet. Viele davon sind auch Betreiber von sozialen/digitalen Medienplattformen oder Suchmaschinen (Meta, Google, Adobe, Canva, Microsoft).

Diese Ergebnisse deuten auf ein „Wild-West“-Szenario hin, in dem robuste Schutzmaßnahmen nicht einheitlich angewendet werden.

Das Ökosystem ist konzentriert

Es besteht eine bemerkenswerte Konzentration im KI-Ökosystem. Eine kleine Anzahl von Anbietern fortschrittlicher (Open-Source-)Modelle beeinflusst das Feld maßgeblich. Viele Systemanbieter greifen auf Basismodelle oder feinabgestimmte Versionen von nur wenigen Quellen zurück (z. B. Stability AI, Black Forest Labs und OpenAI). Obwohl sie Lösungen einbauen können, können diese leicht deaktiviert oder inkonsistent angewendet werden.

Herausforderungen bei der Beschränkung auf Deep Fakes

Die Anwendung sichtbarer Offenlegungen speziell auf Deep-Fake-Bilder stellt eine Herausforderung dar. Anbieter benötigen ein ausgeklügeltes System, um Prompts als Deep Fakes zu klassifizieren, was für kleinere Organisationen schwierig sein kann. Sichtbare Offenlegungen werden bisher meist nicht verwendet.

Bedenken hinsichtlich der langfristigen Compliance

Die Vielfalt der Markierungstechniken und der Aufstieg von Systemen, die Modelle anderer verwenden (Kategorien 2, 3 und 4), erfordern automatisierte Methoden zur Überprüfung der Compliance. Diese müssen verschiedene Erkennungsmechanismen integrieren, um eine wirksame Durchsetzung zu gewährleisten, wenn der AI Act in Kraft tritt.

Welche Einschränkungen sind mit der Untersuchung verbunden?

Es ist wichtig, mehrere Einschränkungen und Begrenzungen in unserer Analyse anzuerkennen.

Erstens besteht die Möglichkeit, dass wir bestimmte in der Praxis verwendete Wasserzeichen- und digitale Fingerprinting-Techniken nicht identifiziert haben. Wir haben unser Bestes gegeben, um alle Angaben zu Wasserzeichen aus der Dokumentation der Anbieter der Systeme zu finden, aber es besteht die Möglichkeit, dass diese nicht offengelegt wurden und nicht-standardisierte Techniken verwendet wurden, die wir nicht überprüft haben.

Zweitens, obwohl wir Prompts verwendet haben, die wir eindeutig als Deepfakes ansehen, räumen wir ein, dass die Definition eines Deepfakes umstritten sein könnte.

Schließlich boten einige von uns analysierte KI-Systeme keine Speichern-Schaltfläche für die Bilder innerhalb der Systemschnittstelle an, was uns zwang, andere Download-Methoden zu verwenden. Dies kann zum Verlust bestimmter Metadaten geführt haben, was möglicherweise unsere Ergebnisse bezüglich der Einbettung von maschinenlesbaren Wasserzeichen beeinflusst.

german

Welche Implikationen und Herausforderungen ergeben sich durch Watermarking im Kontext von KI-Generierungssystemen?

Der Aufstieg generativer KI hat einen dringenden Bedarf an Watermarking und Kennzeichnung von KI-generierten Inhalten geschaffen, insbesondere angesichts von Vorschriften wie dem EU AI Act, der diese Praktiken vorschreibt. Die Umsetzung birgt jedoch ein komplexes Geflecht von Herausforderungen und Implikationen.

Widersprüchliche Anreize und regulatorische Auflagen

Während die Gesellschaft von der Identifizierung KI-generierter Inhalte profitiert, sehen sich Anbieter oft mit widersprüchlichen Anreizen konfrontiert. Sie wollen den Nutzern die Möglichkeit bieten, Inhalte ohne sichtbare Anzeichen künstlicher Erzeugung zu erstellen. Große Unternehmen sind dem Risiko des „Modellkollaps“ ausgesetzt, bei dem sich KI-Modelle verschlechtern, wenn sie mit KI-generierten Inhalten trainiert werden. Auch Social-Media-Unternehmen wie Meta haften nach dem EU Digital Services Act für die Verbreitung schädlicher Inhalte, was das Watermarking zusätzlich fördert.

Der EU AI Act, der ab dem 1. August 2026 gelten soll, schreibt zwei Schlüsselmaßnahmen vor:

  • Einbettung maschinenlesbarer Markierungen in KI-generierte Ausgaben zur automatischen Erkennung.
  • Sichtbare Offenlegung des künstlichen Ursprungs von KI-generierten „Deep Fakes“.

Nichtbeachtung kann zu Geldbußen von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes eines Unternehmens führen. Allerdings bestehen weiterhin Unklarheiten hinsichtlich der praktischen Anwendung dieser Anforderungen, einschließlich der Verantwortungsverteilung und der Definition von „Deep Fake“.

Transparenzherausforderungen entlang der KI-Lieferkette

Die Lieferkette der generativen KI umfasst Entwickler von Basismodellen, nachgelagerte Entwickler, Systemanbieter und Systemanwender. Die Transparenzregeln des AI Act gelten speziell für KI-Systeme (Apps oder Webtools), nicht unbedingt für die zugrunde liegenden Modellentwickler.

Verschiedene Einsatzszenarien schaffen unterschiedliche Implikationen für die Compliance:

  • End-to-End integrierte Systeme: Organisationen, die KI-Modelle entwickeln und einsetzen, sind für die Implementierung eines robusten Watermarking verantwortlich.
  • Systeme, die API-Modellzugriff nutzen: Diese Systeme nutzen APIs von groß angelegten Modellanbietern. Die Compliance hängt von der Nutzung eingebauter Watermarking-Funktionen oder der Implementierung von Post-Processing-Maßnahmen ab.
  • (Open-Source-)Systeme, die auf Hugging Face bereitgestellt werden: Die Bestimmung der Verantwortung für die Einhaltung des AI Act ist in diesen Fällen nicht eindeutig, insbesondere da Hugging Face die Benutzeroberfläche bereitstellt.
  • Systeme, die andere (Open-Source-)Modelle unter ihrer eigenen Marke verwenden: Diese Organisationen setzen KI-Modelle unter ihrer eigenen Marke ein, ohne die Quelle offenzulegen, was die vollständige Einhaltung der Transparenzpflichten erfordert.

Praktische Erwägungen und Implementierungslücken

Derzeit implementiert nur eine Minderheit der Anbieter maschinenlesbare Markierungspraktiken, hauptsächlich getrieben von großen Organisationen, die die Verschlechterung ihrer KI-Trainingsdatensätze verhindern und urheberrechtlich geschützte Inhalte schützen wollen.

  • Begrenztes Watermarking: Robuste Watermarking-Methoden, die sich auf die Erkennung KI-generierter Bilder konzentrieren, sind nach wie vor selten, insbesondere solche, die nicht einfach entfernt werden können. Viele Lösungen basieren auf Post-Generation-Techniken wie der Einbettung von Metadaten, die leicht entfernt werden können.
  • Sichtbare Offenlegungen: Sichtbare Wasserzeichen für Deep Fakes werden selten verwendet, oft aufgrund ihrer Auswirkungen auf die Benutzerfreundlichkeit.
  • Deep Fake Detection: Die Beschränkung der Kennzeichnung auf Deep Fakes erfordert komplexe Methoden, die für kleinere Organisationen eine Herausforderung darstellen können.
  • Ökosystem-Konzentration: Eine Handvoll Modellanbieter beeinflussen das Ökosystem stark, wodurch ihre Handlungen für eine breitere Akzeptanz von Watermarking-Praktiken entscheidend sind.

Es bestehen Herausforderungen bei der fairen Verteilung der Compliance-Lasten entlang der KI-Lieferkette, und die EU erwägt, groß angelegte Modelle als GPAI-Modelle mit systemischem Risiko einzustufen, wodurch Entwickler verpflichtet werden, eine strenge Watermarking-Implementierung über API vorzunehmen.

german

Praktische Auswirkungen des neuen EU KI-Gesetzes

Das EU KI-Gesetz schreibt spezifische Maßnahmen zur Bewältigung von Risiken durch KI-generierte Inhalte vor. Hier ist eine Aufschlüsselung für Compliance-Beauftragte und Legal-Tech-Experten:

Wesentliche Anforderungen:

  • Maschinenlesbare Kennzeichnungen (Artikel 50(2)): Alle KI-generierten Ausgaben müssen eingebettete, erkennbare, maschinenlesbare Kennzeichnungen aufweisen. Dies zielt darauf ab, die automatisierte Erkennung synthetischer Inhalte zu erleichtern.
  • Sichtbare Offenlegungen (Artikel 50(4)): Anwender generativer KI-Systeme, die „Deep Fakes“ (die realen Personen, Objekten usw. ähneln) erstellen oder manipulieren, müssen offenlegen, dass der Inhalt künstlich ist. Diese Offenlegung muss zum Zeitpunkt der ersten „Interaktion oder Exposition“ klar und unterscheidbar sein.

Durchsetzung und Strafen:

  • Diese Regeln treten am 1. August 2026 in Kraft.
  • Die Nichteinhaltung kann zu Geldbußen von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes führen.

Unklarheiten und Herausforderungen

Das KI-Gesetz steht vor praktischen Anwendungsproblemen wie der Verantwortungszuweisung in der komplexen Lieferkette für generative KI und der Definition eines „Deep Fakes“. Dieser Abschnitt untersucht diese praktischen Einsatzszenarien generativer KI-Systeme, um die Anwendung zu verdeutlichen, die dann zur Gestaltung von KI-Messungen dienen, um die Übersetzung des Rechts in technische Artefakte zu verdeutlichen.

Einsatzszenarien und Verantwortlichkeiten

Zur Verdeutlichung der Anwendung der Transparenzregeln des KI-Gesetzes identifiziert das Papier vier Einsatzszenarien und analysiert, wie die Regeln in jedem einzelnen Fall Anwendung finden:

  • End-to-End-integrierte Systeme: Unternehmen, die KI-Modelle intern entwickeln und einsetzen, müssen sowohl die maschinenlesbaren Kennzeichnungen als auch die sichtbaren Deep-Fake-Offenlegungen einhalten.
  • Systeme, die über API auf Modelle zugreifen: Systeme, die APIs von großen Modellanbietern (wie OpenAI) integrieren, müssen die Vorschriften einhalten. Sie können sich entweder auf die integrierten Funktionen der Modellanbieter verlassen oder ihre eigenen Maßnahmen implementieren (Nachbearbeitungs-Wasserzeichen, Metadaten). Die Erkennung von Deep-Fake-Prompts stellt eine erhebliche Herausforderung dar, insbesondere für kleinere Unternehmen. Ein einfacherer Ansatz könnte die sichtbare Offenlegung aller generierten Bilder beinhalten, was sich jedoch negativ auf die Benutzerfreundlichkeit auswirken könnte.
  • (Open-Source-) Systeme, die auf Hugging Face bereitgestellt werden: Es ist unklar, wer die Verantwortung für die Einhaltung der Vorschriften trägt, wenn KI-Modelle auf Hugging Face gehostet werden. Hugging Face bietet die Benutzeroberfläche, hat aber keine Kontrolle über das Modell. Es könnte sich um den Anbieter und den Deployer handeln.
  • Systeme, die andere (Open-Source-) Modelle unter ihrer eigenen Marke verwenden: Diese Kategorie umfasst Organisationen, die beide Transparenzpflichten einhalten müssen.

Praktische Erkenntnisse

  • Rollen klären: Unternehmen müssen ihre Rolle in der KI-Lieferkette (Modellentwickler, Systemanbieter, Anwender) klar definieren, um ihre spezifischen Pflichten zu verstehen.
  • Technische Artefaktübersetzung: Unternehmen müssen die gesetzlichen Anforderungen durch die endgültige Entscheidung und/oder Umsetzung des KI-Gesetzes in technische Artefakte übersetzen.
  • Bestehende Lösungen bewerten: Bewerten Sie die vorhandenen Wasserzeichenfunktionen in KI-Modellen oder verwendeten APIs. Wenn diese fehlen, implementieren Sie Nachbearbeitungstechniken.
  • Deep-Fake-Erkennung: Entwickeln oder erwerben Sie Fähigkeiten zur Erkennung von Deep-Fake-Prompts oder erwägen Sie die breite Anwendung sichtbarer Offenlegungen.
Mit der Verschärfung der regulatorischen Rahmenbedingungen für KI zeigt der aktuelle Stand des Watermarking in der Bildgenerierung eine fragmentierte Realität. Während das Bewusstsein für die Notwendigkeit von Transparenz wächst, bleibt die konkrete Umsetzung, insbesondere von robusten und konsistent angewandten Lösungen, begrenzt. Der zukünftige Weg erfordert gemeinschaftliche Anstrengungen entlang der KI-Lieferkette, zusammen mit der Entwicklung und Einführung automatisierter Verifizierungswerkzeuge. Eine erfolgreiche Navigation durch das sich entwickelnde regulatorische Umfeld erfordert eine Verlagerung von Ad-hoc-Maßnahmen hin zu standardisierten, verifizierbaren und skalierbaren Methoden, um den verantwortungsvollen Einsatz von KI-generierten Inhalten zu gewährleisten. Der letztendliche Erfolg hängt davon ab, die Kluft zwischen regulatorischen Absichten und praktischer Ausführung in einem sich schnell entwickelnden technologischen Bereich zu überbrücken.

More Insights

AI-Rüstungswettlauf und die Auswirkungen von Tarifen auf den EU-AI-Gesetz

Tarife können sowohl als Hindernis als auch als potenzieller Katalysator für den Fortschritt von KI und Automatisierung wirken. In Kombination mit dem EU-KI-Gesetz ergeben sich komplexe...

Europäische Kommission: Aktionsplan für KI-Souveränität

Die Europäische Kommission hat ihren AI Continent Action Plan veröffentlicht, der darauf abzielt, Europa als globalen Führer im Bereich der künstlichen Intelligenz zu etablieren. Der Plan umfasst eine...

Die AI-Herausforderung: Singapur zwischen Innovation und Regulierung

Singapur steht vor der Herausforderung, ein Gleichgewicht zwischen Innovation und Regulierung im Bereich der Künstlichen Intelligenz (KI) zu finden. Angesichts von Bedenken hinsichtlich Datenschutz...

Verantwortliche KI im Finanzsektor

Lexy Kassan diskutiert die entscheidenden Aspekte von verantwortungsbewusstem KI-Einsatz, insbesondere im Hinblick auf regulatorische Aktualisierungen wie den EU AI Act und dessen Auswirkungen auf die...

Menschzentrierte KI: Wegbereiter für ethische und verantwortungsvolle KI-Agenten

In der sich ständig weiterentwickelnden Landschaft der künstlichen Intelligenz gewinnt das Gespräch über human-zentrierte KI (HCAI) an erheblicher Bedeutung. Diese Paradigmenwechsel ist nicht nur eine...

Der EU AI Act: Grundlagen der Regulierung von Künstlicher Intelligenz

Der EU AI Act markiert den Beginn einer neuen Ära der Regulierung von künstlicher Intelligenz in Europa. Er schafft ein einheitliches rechtliches Regime für alle EU-Mitgliedstaaten und zielt darauf...

EU-Kommission präsentiert Aktionsplan für KI-Entwicklung

Am 9. April 2025 verabschiedete die Europäische Kommission eine Mitteilung über den sogenannten AI Continent Action Plan – ihre Strategie zur Gestaltung der nächsten Phase der KI-Entwicklung in...

Aktualisierte KI-Modellvertragsklauseln der EU veröffentlicht

Die Gemeinschaft der Praxis der EU für öffentliche Beschaffung von KI hat am 5. März 2025 eine aktualisierte Version ihrer nicht verbindlichen EU AI-Modellvertragsklauseln veröffentlicht. Diese...

EU AI Gesetz: Emotionale Erkennungssysteme am Arbeitsplatz unter der Lupe

Emotionserkennungs-KI bezieht sich auf KI, die biometrische Daten wie Gesichtsausdrücke und Stimme verwendet, um Emotionen zu identifizieren und zu analysieren. Der EU AI Act verbietet die Verwendung...