Welche Risiken und Herausforderungen sind mit KI-generierten Inhalten verbunden, und wie reagieren die Gerichtsbarkeiten darauf?
Der Aufstieg generativer KI hat die Grenzen zwischen authentischen und synthetischen Inhalten verwischt und gesellschaftliche Risiken geschaffen, insbesondere durch realistische Deepfakes. Diese Erosion des Vertrauens veranlasst Gerichtsbarkeiten, wie die EU, dazu, KI-Transparenzbestimmungen einzuführen.
Wasserzeichen, maschinenlesbare Markierungen und sichtbare Offenlegungen entwickeln sich zu Schlüsselmechanismen zur Bekämpfung dieser Risiken. Es bestehen jedoch widersprüchliche Anreize, da Anbieter möglicherweise den Nutzern die Möglichkeit bieten möchten, Inhalte ohne Anzeichen von Künstlichkeit zu erstellen. Der Modellkollaps, bei dem das Training mit synthetischen Daten die KI-Qualität beeinträchtigt, fügt eine weitere Komplexitätsebene hinzu. Social-Media-Plattformen sind auch für die Verbreitung schädlicher KI-generierter Inhalte haftbar.
Der EU AI Act schreibt zwei wesentliche Schutzmaßnahmen vor:
- Maschinenlesbare Wasserzeichen, die die Erkennung generierter oder manipulierter Inhalte erleichtern.
- Sichtbare Offenlegungen von Deepfakes, um ihren künstlichen Ursprung explizit offenzulegen.
Die Nichteinhaltung zieht erhebliche Strafen nach sich, die bis zu 15 Millionen Euro oder 3 % des weltweiten Umsatzes betragen können. Die Regeln gelten ab dem 1. August 2026. Trotz guter Absichten bestehen weiterhin Unklarheiten bei der Zuweisung der Verantwortung innerhalb der KI-Lieferkette, und Definitionen (wie „Deepfake“) bedürfen der Klärung.
Wesentliche Herausforderungen & Risiken:
- Erosion des Vertrauens: Die einfache Erstellung überzeugender synthetischer Inhalte untergräbt das Vertrauen in Medien und Informationsquellen.
- Widersprüchliche Anreize: KI-Anbieter müssen das Bedürfnis der Kunden nach uneingeschränkter Kreativität mit den gesellschaftlichen Bedürfnissen nach Transparenz in Einklang bringen.
- Modellkollaps: KI-Training mit KI-generierten Inhalten, das die Modellqualität beeinträchtigt, ist ein ernstes Problem für KI-Entwickler.
- Haftung: Social-Media-Plattformen stehen unter erhöhtem Druck, Deepfakes zu verwalten und zu kennzeichnen, was zu Haftungsbedenken führt.
- Unklarheiten in den Vorschriften: Der AI Act benötigt klarere Leitlinien für die Anwendung von Wasserzeichen und Offenlegungspflichten, insbesondere in komplexen KI-Lieferketten.
Was sind die Kernideen der generativen KI-Lieferkette?
Die Landschaft der generativen KI, insbesondere bei Text-zu-Bild-Systemen, umfasst eine komplexe Lieferkette mit miteinander verbundenen Schritten und vielfältigen Teilnehmern. Eine vereinfachte Sichtweise identifiziert vier Hauptakteure:
- Basismodellentwickler: Erstellen die grundlegenden KI-Modelle, die riesige Datenmengen und Rechenressourcen benötigen. Beispiele sind OpenAI (DALL-E 3) und Stability AI (Stable Diffusion).
- Downstream-Entwickler: Feinabstimmung von Basismodellen für spezifische Anwendungen (z. B. künstlerische Stile). Sie können diese Modelle gegen Gebühr oder über Open-Source-Plattformen (z. B. Juggernaut XL) vertreiben.
- Systemanbieter: Wandeln Modelle in funktionierende Systeme mit Benutzeroberflächen (Web, Mobile, Desktop) um. Sie bieten oft Zugang für Endnutzer (Deployer), können aber unterschiedliche Grade der Freigabe und Integration implementieren.
- System Deployer: Stellen KI-Systeme für Endnutzer bereit. In vielen Fällen fungiert der Systemanbieter auch als Deployer.
Regulierungsbedenken und das EU-KI-Gesetz
Das EU-KI-Gesetz führt Transparenzanforderungen für generative KI ein, insbesondere in Bezug auf Wasserzeichen und die Offenlegung von KI-generierten Inhalten (insbesondere Deepfakes). Artikel 50 schreibt Folgendes vor:
- Maschinenlesbare Kennzeichnungen in KI-generierten Ausgaben zur automatischen Erkennung synthetischer Inhalte. Diese Kennzeichnungen sollten wirksam, interoperabel, robust und zuverlässig sein. Dies kann durch Wasserzeichen, Metadaten-IDs, kryptografische Methoden, Protokollierung oder Fingerprinting-Techniken erreicht werden.
- Sichtbare Offenlegung, dass Inhalte künstlich erzeugt oder manipuliert wurden, insbesondere wenn es sich um einen „Deepfake“ handelt, den das KI-Gesetz als KI-generierten Inhalt definiert, der vorhandenen Personen, Objekten, Orten, Entitäten oder Ereignissen ähnelt und einer Person fälschlicherweise als authentisch oder wahrheitsgemäß erscheint. Diese Information muss deutlich am Punkt der ersten Interaktion dargestellt werden.
Die Vorschriften gelten für KI-Systeme (Apps, Web-Tools), nicht nur für die zugrunde liegenden Modelle. Nichteinhaltung kann zu Strafen von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes führen. Diese Regeln treten am 1. August 2026 in Kraft.
Praktische Implikationen und Herausforderungen bei der Umsetzung
Das KI-Gesetz führt zu Komplexitäten bei der Zuweisung von Verantwortlichkeiten entlang der Lieferkette. Es ist nicht immer klar, ob die Last der Compliance angemessen verteilt ist, z. B. bei KI-Modellen, die über eine API aktiviert werden.
Deployment-Szenarien können variieren, was zu unterschiedlichen Ansätzen für die Wasserzeichensetzung führt. Das Dokument identifiziert 4 solcher Szenarien:
- End-to-End integrierte Systeme
- Systeme, die API-Modellzugriff nutzen
- Open-Source-Systeme, die auf Hugging Face bereitgestellt werden
- Systeme, die andere (Open-Source-)Modelle unter ihrer eigenen Marke verwenden
Die sichtbare Kennzeichnung von *nur* Deepfakes ist eine weitere praktische Hürde im Rahmen des KI-Gesetzes. Um Deepfakes präzise zu erkennen, benötigen Anbieter separate NLP-basierte Lösungen zur Prompt-Klassifizierung. Dies wirft Bedenken auf, insbesondere für kleinere Organisationen.
Die Implementierung effektiver Compliance-Mechanismen birgt Herausforderungen bei der Überprüfung von „Nicht-Wahrheit“ (Erkennung von KI-generierten Inhalten) und der Gewährleistung robuster, interoperabler Lösungen. Angesichts der wachsenden Anzahl von KI-Bildgenerierungstools werden automatisierte Compliance-Inspektionsmethoden und Drittanbieterlösungen für eine effektive Durchsetzung unerlässlich sein.
Wie behandelt das EU-KI-Gesetz Wasserzeichen und Offenlegung für KI-generierte Inhalte?
Das EU-KI-Gesetz, dessen Durchsetzung ab dem 1. August 2026 geplant ist, führt wichtige Transparenzpflichten für generative KI-Systeme ein, insbesondere in Bezug auf Wasserzeichen und Offenlegung.
Gesetzliche Anforderungen
- Maschinenlesbares Wasserzeichen: Artikel 50(2) schreibt vor, dass Anbieter von generativen KI-Systemen sicherstellen, dass ihre Ausgaben in einem maschinenlesbaren Format gekennzeichnet sind, das als künstlich erzeugt oder manipuliert erkennbar ist. Das Gesetz betont, dass technische Lösungen wirksam, interoperabel, robust und zuverlässig sein müssen.
- Sichtbare Offenlegung für Deep Fakes: Artikel 50(4) verpflichtet die Anwender von generativen KI-Systemen, offenzulegen, wenn sie Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren, die einen „Deep Fake“ darstellen. Diese Offenlegung muss zum Zeitpunkt der ersten Interaktion oder Exposition klar und erkennbar sein.
Die Vorschriften legen keine genauen Methoden für die Umsetzung sichtbarer Offenlegungen fest, betonen aber die Notwendigkeit einer klaren Kennzeichnung innerhalb des KI-generierten Outputs selbst und nicht einer separaten Nachricht. Die Strafen für Nichteinhaltung können bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes betragen.
Unklarheiten und Herausforderungen bei der Umsetzung
Die Formulierung des KI-Gesetzes lässt Raum für Interpretationen, insbesondere in Bezug auf die Zuweisung von Verantwortung entlang der komplexen Lieferkette für generative KI. Auch die Definition von „Deep Fake“ stellt eine Herausforderung dar.
Begrenzter Umfang für Modellentwickler
Die Transparenzanforderungen gelten ausdrücklich für KI-Systeme (z. B. Apps oder Webtools), nicht für die zugrunde liegenden Basismodelle.
Obwohl der zweite Entwurf des Verhaltenskodex für GPAI-Modelle eine Verpflichtung für Anbieter von GPAI-Modellen mit systemischen Risiken beinhaltet, Methoden wie Wasserzeichen zur Identifizierung und Meldung von Vorfällen im Zusammenhang mit der Nutzung ihres Modells zu verwenden.
Ausnahmen
Bemerkenswerterweise sind Anbieter von KI-Systemen, die unter freien und Open-Source-Lizenzen veröffentlicht werden, im Gegensatz zu einigen anderen Abschnitten nicht von diesen Transparenzanforderungen gemäß Artikel 50 des KI-Gesetzes ausgenommen. Dies ist entscheidend für die Umsetzung des Gesetzes im gesamten Ökosystem.
german
Welche Methodik wurde zur Analyse der praktischen Implementierung von Wasserzeichen verwendet?
Um die tatsächliche Verbreitung von Wasserzeichen und Offenlegungspraktiken zu beurteilen, wurde ein mehrgleisiger Ansatz verwendet, der 50 weit verbreitete generative KI-Systeme analysierte.
Auswahl der KI-Systeme
Eine vielfältige Auswahl von 50 generativen KI-Systemen wurde auf der Grundlage verschiedener Geschäftsmodelle und Vertriebskanäle zusammengestellt, die die vier Bereitstellungskategorien widerspiegeln: durchgängig integrierte Systeme, Systeme mit API-Modellzugriff, Open-Source-Systeme, die auf Hugging Face bereitgestellt werden, und Systeme, die andere (Open-Source-)Modelle unter ihrem eigenen Warenzeichen verwenden. Die Systeme in Kategorie 1 wurden ausgewählt, indem die Stanford Foundation Models Ökosystem-Tabelle [26] gefiltert und Organisationen ausgewählt wurden, die kostenlose Bildgenerierungstools mit ihren eigenen Basismodellen anbieten. Die Systeme in Kategorie 3 wurden ausgewählt, indem der Hugging Face ‚Modell‘-Bereich nach den fünf am häufigsten heruntergeladenen Open-Source-Text-zu-Bild-Generierungsmodellen gefiltert wurde, die das Hugging Face API-Widget-Tool [21] anboten. Die web- und mobilbasierten Systeme der Kategorien 2 und 4 wurden anhand der Suchanfrage „KI-Bildgenerierung“ im Apple App Store und in der Google Suche ausgewählt. Die Top 14 Systeme aus jeder Modalität (insgesamt 28), die eine kostenlose Text-zu-Bild-Generierung anboten (falls erforderlich: durch Verwendung eines Kontos oder durch Starten einer kostenlosen Testversion), wurden berücksichtigt.
Bildgenerierung
Für jedes ausgewählte System wurden mindestens zwei Bilder generiert. Es wurden Standardeinstellungen mit einem neutralen Prompt („Ein Doktorand“) und einem potenziell riskanten „Deep Fake“-Prompt („Ein wunderschönes Deep-Fake-Foto von Donald Trump in McDonald’s“) verwendet. Ziel war es, zu evaluieren, ob Wasserzeichen speziell auf Inhalte angewendet wurden, die als potenzieller Deepfake gekennzeichnet waren. Generierte Bilder wurden über die Option „Speichern“ oder „Herunterladen“ in der Systemschnittstelle gespeichert.
Wasserzeichen- und Offenlegungserkennung
Die Evaluationsmetriken konzentrierten sich auf maschinenlesbare Kennzeichnungen und sichtbare Offenlegungen. Eine Kombination von Techniken, wie unten aufgeführt, wurde verwendet, um ihre Einführung zu identifizieren:
- Dokumentationsanalyse: Die Systemdokumentation (App-Beschreibungen, FAQs, Nutzungsbedingungen, Datenschutzrichtlinien und ReadMe-Dateien) wurde überprüft, um alle Angaben in Bezug auf Wasserzeichen, Metadatennutzung oder digitale Fingerabdruckverfahren zu identifizieren.
- Codeanalyse: Für Open-Source-Systeme (hauptsächlich Kategorien 2 und 3) wurden Modellinformationsseiten und Quellcode auf Hugging Face und GitHub auf Erwähnungen von Wasserzeichen-Bibliotheken, Erkennungstools oder Metadatenanpassungen untersucht.
- Bildinspektion:
Es wurden Tools eingesetzt, um die generierten Bilder zu untersuchen:
- Metadaten: Ein Online-Tool zur Metadateninspektion wurde verwendet, um Metadaten aus den Standards EXIF, IPTC und XMP zu extrahieren und zu analysieren, wobei nach Erwähnungen der KI-Generierung gesucht wurde.
- Wasserzeichen: Wenn Wasserzeichenlösungen und Erkennungstools in der Dokumentation oder Codeanalyse gefunden wurden, wurde das entsprechende Erkennungstool auf die Bilder angewendet. Für Googles Wasserzeichen [28] und die Open-Source-Wasserzeichenbibliothek, die von Stability AI und Black Forest Labs verwendet wird [10, 48, 51], wurden öffentliche Erkennungstools verwendet. Ein Algorithmus wurde erstellt, um die genannten öffentlichen Erkennungstools auf allen generierten Bildern auszuführen.
- Digitales Fingerprinting: Die C2PA-Spezifikation, ein Industriestandard für Provenienz, wurde analysiert [25, 43]. Das C2PA-Erkennungstool wurde verwendet, um das Vorhandensein eines digitalen Fingerabdrucks, einer Metadateneinbettung oder eines Wasserzeichens zu überprüfen.
- Manuelle Inspektionen: Manuelle Überprüfungen verifizierten sichtbare Wasserzeichen und Offenlegungen, die auf KI-generierte Inhalte sowohl bei neutralen als auch bei Deep-Fake-Prompts hinwiesen. Der Fokus lag darauf, ob sichtbare Markierungen auf Deepfakes beschränkt waren, und nicht darauf, zu beurteilen, ob Bilder als „Deepfake“ qualifiziert waren.
german
Was sind die wichtigsten Ergebnisse der empirischen Analyse zu Watermarking-Praktiken?
Unsere Untersuchung von 50 weit verbreiteten generativen KI-Bildsystemen zeigt eine Landschaft, die sich noch in den Kinderschuhen befindet, was die Einführung von Watermarking betrifft, insbesondere im Hinblick auf den Geltungsbeginn des EU AI Act im August 2026. Die Studie zielte in erster Linie nicht darauf ab, die aktuelle Compliance zu bewerten, sondern den Stand von maschinenlesbaren Watermarking- und sichtbaren Offenlegungslösungen sowie die Hürden bei der Implementierung und Durchsetzung von Vorschriften in Bezug auf diese aufzuzeigen.
Hier sind die wichtigsten Ergebnisse:
- Begrenzte Implementierung von maschinenlesbaren Wasserzeichen: Nur eine Minderheit der Systeme (18 von 50) enthält eine Form von maschinenlesbarem Wasserzeichen.
- Metadaten-Einbettungen sind üblich, aber nicht robust: Während Metadaten die am häufigsten verwendete Methode sind, lassen sie sich leicht entfernen, was sie zu einer weniger robusten Lösung macht. Zehn Systeme nutzten diesen Ansatz.
- Versteckte Wasserzeichen sind selten: Hochentwickelte versteckte Watermarking-Techniken finden sich nur in einer kleinen Teilmenge von Systemen (6).
- Sichtbare Offenlegungen sind ebenfalls selten: Nur 8 von 50 Systemen verwendeten sichtbare Wasserzeichen oder andere Offenlegungslösungen, die in das Bild eingebettet sind, um dessen KI-generierte Natur anzuzeigen.
- End-to-End-Systeme sind führend bei der Implementierung: Maschinenlesbare Markierungslösungen sind bei End-to-End-Anbietern (Kategorie 1) und großen Anbietern (Kategorie 2) weiter verbreitet. Viele davon sind auch Betreiber von sozialen/digitalen Medienplattformen oder Suchmaschinen (Meta, Google, Adobe, Canva, Microsoft).
Diese Ergebnisse deuten auf ein „Wild-West“-Szenario hin, in dem robuste Schutzmaßnahmen nicht einheitlich angewendet werden.
Das Ökosystem ist konzentriert
Es besteht eine bemerkenswerte Konzentration im KI-Ökosystem. Eine kleine Anzahl von Anbietern fortschrittlicher (Open-Source-)Modelle beeinflusst das Feld maßgeblich. Viele Systemanbieter greifen auf Basismodelle oder feinabgestimmte Versionen von nur wenigen Quellen zurück (z. B. Stability AI, Black Forest Labs und OpenAI). Obwohl sie Lösungen einbauen können, können diese leicht deaktiviert oder inkonsistent angewendet werden.
Herausforderungen bei der Beschränkung auf Deep Fakes
Die Anwendung sichtbarer Offenlegungen speziell auf Deep-Fake-Bilder stellt eine Herausforderung dar. Anbieter benötigen ein ausgeklügeltes System, um Prompts als Deep Fakes zu klassifizieren, was für kleinere Organisationen schwierig sein kann. Sichtbare Offenlegungen werden bisher meist nicht verwendet.
Bedenken hinsichtlich der langfristigen Compliance
Die Vielfalt der Markierungstechniken und der Aufstieg von Systemen, die Modelle anderer verwenden (Kategorien 2, 3 und 4), erfordern automatisierte Methoden zur Überprüfung der Compliance. Diese müssen verschiedene Erkennungsmechanismen integrieren, um eine wirksame Durchsetzung zu gewährleisten, wenn der AI Act in Kraft tritt.
Welche Einschränkungen sind mit der Untersuchung verbunden?
Es ist wichtig, mehrere Einschränkungen und Begrenzungen in unserer Analyse anzuerkennen.
Erstens besteht die Möglichkeit, dass wir bestimmte in der Praxis verwendete Wasserzeichen- und digitale Fingerprinting-Techniken nicht identifiziert haben. Wir haben unser Bestes gegeben, um alle Angaben zu Wasserzeichen aus der Dokumentation der Anbieter der Systeme zu finden, aber es besteht die Möglichkeit, dass diese nicht offengelegt wurden und nicht-standardisierte Techniken verwendet wurden, die wir nicht überprüft haben.
Zweitens, obwohl wir Prompts verwendet haben, die wir eindeutig als Deepfakes ansehen, räumen wir ein, dass die Definition eines Deepfakes umstritten sein könnte.
Schließlich boten einige von uns analysierte KI-Systeme keine Speichern-Schaltfläche für die Bilder innerhalb der Systemschnittstelle an, was uns zwang, andere Download-Methoden zu verwenden. Dies kann zum Verlust bestimmter Metadaten geführt haben, was möglicherweise unsere Ergebnisse bezüglich der Einbettung von maschinenlesbaren Wasserzeichen beeinflusst.
german
Welche Implikationen und Herausforderungen ergeben sich durch Watermarking im Kontext von KI-Generierungssystemen?
Der Aufstieg generativer KI hat einen dringenden Bedarf an Watermarking und Kennzeichnung von KI-generierten Inhalten geschaffen, insbesondere angesichts von Vorschriften wie dem EU AI Act, der diese Praktiken vorschreibt. Die Umsetzung birgt jedoch ein komplexes Geflecht von Herausforderungen und Implikationen.
Widersprüchliche Anreize und regulatorische Auflagen
Während die Gesellschaft von der Identifizierung KI-generierter Inhalte profitiert, sehen sich Anbieter oft mit widersprüchlichen Anreizen konfrontiert. Sie wollen den Nutzern die Möglichkeit bieten, Inhalte ohne sichtbare Anzeichen künstlicher Erzeugung zu erstellen. Große Unternehmen sind dem Risiko des „Modellkollaps“ ausgesetzt, bei dem sich KI-Modelle verschlechtern, wenn sie mit KI-generierten Inhalten trainiert werden. Auch Social-Media-Unternehmen wie Meta haften nach dem EU Digital Services Act für die Verbreitung schädlicher Inhalte, was das Watermarking zusätzlich fördert.
Der EU AI Act, der ab dem 1. August 2026 gelten soll, schreibt zwei Schlüsselmaßnahmen vor:
- Einbettung maschinenlesbarer Markierungen in KI-generierte Ausgaben zur automatischen Erkennung.
- Sichtbare Offenlegung des künstlichen Ursprungs von KI-generierten „Deep Fakes“.
Nichtbeachtung kann zu Geldbußen von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes eines Unternehmens führen. Allerdings bestehen weiterhin Unklarheiten hinsichtlich der praktischen Anwendung dieser Anforderungen, einschließlich der Verantwortungsverteilung und der Definition von „Deep Fake“.
Transparenzherausforderungen entlang der KI-Lieferkette
Die Lieferkette der generativen KI umfasst Entwickler von Basismodellen, nachgelagerte Entwickler, Systemanbieter und Systemanwender. Die Transparenzregeln des AI Act gelten speziell für KI-Systeme (Apps oder Webtools), nicht unbedingt für die zugrunde liegenden Modellentwickler.
Verschiedene Einsatzszenarien schaffen unterschiedliche Implikationen für die Compliance:
- End-to-End integrierte Systeme: Organisationen, die KI-Modelle entwickeln und einsetzen, sind für die Implementierung eines robusten Watermarking verantwortlich.
- Systeme, die API-Modellzugriff nutzen: Diese Systeme nutzen APIs von groß angelegten Modellanbietern. Die Compliance hängt von der Nutzung eingebauter Watermarking-Funktionen oder der Implementierung von Post-Processing-Maßnahmen ab.
- (Open-Source-)Systeme, die auf Hugging Face bereitgestellt werden: Die Bestimmung der Verantwortung für die Einhaltung des AI Act ist in diesen Fällen nicht eindeutig, insbesondere da Hugging Face die Benutzeroberfläche bereitstellt.
- Systeme, die andere (Open-Source-)Modelle unter ihrer eigenen Marke verwenden: Diese Organisationen setzen KI-Modelle unter ihrer eigenen Marke ein, ohne die Quelle offenzulegen, was die vollständige Einhaltung der Transparenzpflichten erfordert.
Praktische Erwägungen und Implementierungslücken
Derzeit implementiert nur eine Minderheit der Anbieter maschinenlesbare Markierungspraktiken, hauptsächlich getrieben von großen Organisationen, die die Verschlechterung ihrer KI-Trainingsdatensätze verhindern und urheberrechtlich geschützte Inhalte schützen wollen.
- Begrenztes Watermarking: Robuste Watermarking-Methoden, die sich auf die Erkennung KI-generierter Bilder konzentrieren, sind nach wie vor selten, insbesondere solche, die nicht einfach entfernt werden können. Viele Lösungen basieren auf Post-Generation-Techniken wie der Einbettung von Metadaten, die leicht entfernt werden können.
- Sichtbare Offenlegungen: Sichtbare Wasserzeichen für Deep Fakes werden selten verwendet, oft aufgrund ihrer Auswirkungen auf die Benutzerfreundlichkeit.
- Deep Fake Detection: Die Beschränkung der Kennzeichnung auf Deep Fakes erfordert komplexe Methoden, die für kleinere Organisationen eine Herausforderung darstellen können.
- Ökosystem-Konzentration: Eine Handvoll Modellanbieter beeinflussen das Ökosystem stark, wodurch ihre Handlungen für eine breitere Akzeptanz von Watermarking-Praktiken entscheidend sind.
Es bestehen Herausforderungen bei der fairen Verteilung der Compliance-Lasten entlang der KI-Lieferkette, und die EU erwägt, groß angelegte Modelle als GPAI-Modelle mit systemischem Risiko einzustufen, wodurch Entwickler verpflichtet werden, eine strenge Watermarking-Implementierung über API vorzunehmen.
german
Praktische Auswirkungen des neuen EU KI-Gesetzes
Das EU KI-Gesetz schreibt spezifische Maßnahmen zur Bewältigung von Risiken durch KI-generierte Inhalte vor. Hier ist eine Aufschlüsselung für Compliance-Beauftragte und Legal-Tech-Experten:
Wesentliche Anforderungen:
- Maschinenlesbare Kennzeichnungen (Artikel 50(2)): Alle KI-generierten Ausgaben müssen eingebettete, erkennbare, maschinenlesbare Kennzeichnungen aufweisen. Dies zielt darauf ab, die automatisierte Erkennung synthetischer Inhalte zu erleichtern.
- Sichtbare Offenlegungen (Artikel 50(4)): Anwender generativer KI-Systeme, die „Deep Fakes“ (die realen Personen, Objekten usw. ähneln) erstellen oder manipulieren, müssen offenlegen, dass der Inhalt künstlich ist. Diese Offenlegung muss zum Zeitpunkt der ersten „Interaktion oder Exposition“ klar und unterscheidbar sein.
Durchsetzung und Strafen:
- Diese Regeln treten am 1. August 2026 in Kraft.
- Die Nichteinhaltung kann zu Geldbußen von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes führen.
Unklarheiten und Herausforderungen
Das KI-Gesetz steht vor praktischen Anwendungsproblemen wie der Verantwortungszuweisung in der komplexen Lieferkette für generative KI und der Definition eines „Deep Fakes“. Dieser Abschnitt untersucht diese praktischen Einsatzszenarien generativer KI-Systeme, um die Anwendung zu verdeutlichen, die dann zur Gestaltung von KI-Messungen dienen, um die Übersetzung des Rechts in technische Artefakte zu verdeutlichen.
Einsatzszenarien und Verantwortlichkeiten
Zur Verdeutlichung der Anwendung der Transparenzregeln des KI-Gesetzes identifiziert das Papier vier Einsatzszenarien und analysiert, wie die Regeln in jedem einzelnen Fall Anwendung finden:
- End-to-End-integrierte Systeme: Unternehmen, die KI-Modelle intern entwickeln und einsetzen, müssen sowohl die maschinenlesbaren Kennzeichnungen als auch die sichtbaren Deep-Fake-Offenlegungen einhalten.
- Systeme, die über API auf Modelle zugreifen: Systeme, die APIs von großen Modellanbietern (wie OpenAI) integrieren, müssen die Vorschriften einhalten. Sie können sich entweder auf die integrierten Funktionen der Modellanbieter verlassen oder ihre eigenen Maßnahmen implementieren (Nachbearbeitungs-Wasserzeichen, Metadaten). Die Erkennung von Deep-Fake-Prompts stellt eine erhebliche Herausforderung dar, insbesondere für kleinere Unternehmen. Ein einfacherer Ansatz könnte die sichtbare Offenlegung aller generierten Bilder beinhalten, was sich jedoch negativ auf die Benutzerfreundlichkeit auswirken könnte.
- (Open-Source-) Systeme, die auf Hugging Face bereitgestellt werden: Es ist unklar, wer die Verantwortung für die Einhaltung der Vorschriften trägt, wenn KI-Modelle auf Hugging Face gehostet werden. Hugging Face bietet die Benutzeroberfläche, hat aber keine Kontrolle über das Modell. Es könnte sich um den Anbieter und den Deployer handeln.
- Systeme, die andere (Open-Source-) Modelle unter ihrer eigenen Marke verwenden: Diese Kategorie umfasst Organisationen, die beide Transparenzpflichten einhalten müssen.
Praktische Erkenntnisse
- Rollen klären: Unternehmen müssen ihre Rolle in der KI-Lieferkette (Modellentwickler, Systemanbieter, Anwender) klar definieren, um ihre spezifischen Pflichten zu verstehen.
- Technische Artefaktübersetzung: Unternehmen müssen die gesetzlichen Anforderungen durch die endgültige Entscheidung und/oder Umsetzung des KI-Gesetzes in technische Artefakte übersetzen.
- Bestehende Lösungen bewerten: Bewerten Sie die vorhandenen Wasserzeichenfunktionen in KI-Modellen oder verwendeten APIs. Wenn diese fehlen, implementieren Sie Nachbearbeitungstechniken.
- Deep-Fake-Erkennung: Entwickeln oder erwerben Sie Fähigkeiten zur Erkennung von Deep-Fake-Prompts oder erwägen Sie die breite Anwendung sichtbarer Offenlegungen.