Änderungen der Anforderungen an die Urheberrechtskonformität im GPAI-Code

GPAI Verhaltenskodex – Drittes Entwurf: Änderungen der Anforderungen an die Urheberrechtskonformität

Das dritte Entwurf des GPAI Verhaltenskodex behandelt die Einhaltung der Urheberrechtsanforderungen, die sich aus dem Europäischen KI-Gesetz (Verordnung (EU) 2024/1689, „KI-Gesetz“) ergeben. Anbieter von General-Purpose AI („GPAI“) Modellen, wie Modelle der GPT-Familie, Llama oder Gemini, müssen bestimmte Anforderungen erfüllen, einschließlich der Erstellung von Dokumentationen und der Implementierung von Richtlinien zur Einhaltung des EU-Urheberrechts.

Um die Einhaltung dieser Anforderungen zu erleichtern, sieht das KI-Gesetz die Erstellung von Verhaltenskodizes für die Nutzung von GPAI-Modellen vor. Auf Einladung des KI-Büros haben verschiedene Experten und Interessengruppen vier Arbeitsgruppen eingerichtet, um einen ersten Verhaltenskodex zu entwerfen. Wenn die EU-Kommission diesen Verhaltenskodex genehmigt, wird er innerhalb der EU „allgemeine Gültigkeit“ haben. Durch die Annahme des genehmigten GPAI Verhaltenskodex können Unternehmen proaktive Compliance demonstrieren und möglicherweise regulatorische Überprüfungen und Strafen vermeiden.

Wer ist davon betroffen?

Der Verhaltenskodex ist in erster Linie für Anbieter von GPAI-Modellen relevant. GPAI-Modelle sind Modelle, die eine signifikante Allgemeinheit aufweisen und in der Lage sind, eine Vielzahl von unterschiedlichen Aufgaben kompetent auszuführen. Dazu gehören Anbieter bekannter großer Sprachmodelle wie GPT (OpenAI), Llama (Meta), Gemini (Google) oder Mistral (Mistral AI). Auch kleinere Modellanbieter können betroffen sein, solange ihre Modelle für eine breitere Palette von Aufgaben verwendet werden können.

Zusätzlich sollten auch „nachgelagerte Anbieter“, d.h. Unternehmen, die GPAI-Modelle in ihre KI-Systeme implementieren, sich mit dem Verhaltenskodex vertraut machen. Der Verhaltenskodex könnte zu einem quasi-Standard für GPAI-Modelle werden, was KI-Systementwickler von einem GPAI-Modell erwarten können.

Wichtige Konzepte des Verhaltenskodex zur Urheberrechtsgesetzgebung

Anbieter von GPAI-Modellen sind verpflichtet, eine Richtlinie zur Einhaltung des EU-Urheberrechts (Art. 53 (1) (c) KI-Gesetz) zu implementieren. Da es bisher keine ähnliche Anforderung gab, gibt es keine praktischen Leitlinien dafür, wie eine solche Richtlinie aussehen sollte. Der Verhaltenskodex soll diese Lücke schließen.

Die wichtigsten Maßnahmen, die von den Anbietern umgesetzt werden müssen, sind:

Urheberrechtspolitik

Anbieter, die den Verhaltenskodex unterzeichnen („Unterzeichner“), müssen eine Urheberrechtspolitik zur Einhaltung des EU-Urheberrechts erstellen, aktuell halten und umsetzen. Diese Anforderung ist bereits direkt im KI-Gesetz verankert. Unterzeichner müssen ebenfalls sicherstellen, dass die Urheberrechtspolitik innerhalb ihrer Organisation eingehalten wird. Ein wichtiger Unterschied zum zweiten Entwurf besteht darin, dass Unterzeichner nicht mehr verpflichtet sind, die Urheberrechtspolitik zu veröffentlichen, sondern lediglich dazu ermutigt werden.

Web-Crawling von urheberrechtlich geschütztem Inhalt

Unterzeichner dürfen im Allgemeinen Web-Crawler für die Zwecke des Text- und Daten-Mining („TDM“) nutzen, um Trainingsdaten für ihre GPAI-Modelle zu gewinnen. Dabei müssen sie jedoch sicherstellen, dass die Crawler Technologien respektieren, die den Zugriff auf urheberrechtlich geschützte Materialien einschränken, wie z.B. Bezahlschranken.

Identifizierung und Einhaltung von TDM-Opt-outs

Unterzeichner müssen sicherstellen, dass Web-Crawler ein TDM-Opt-out, das von den Rechteinhabern erklärt wurde, identifizieren und einhalten. TDM ist gemäß dem EU-Urheberrecht im Allgemeinen erlaubt, jedoch können Rechteinhaber erklären, dass sie nicht teilnehmen möchten. Die 3. Entwurf spezifiziert die Anforderungen für Web-Crawler, indem sie festlegt, dass diese das weit verbreitete robots.txt-Protokoll identifizieren und einhalten müssen.

Risikominderung zur Vermeidung der Produktion urheberrechtsverletzender Ausgaben

Ein Risiko bei der Nutzung von KI besteht darin, dass die KI Ausgaben generiert, die Urheberrechte verletzen, z.B. durch die Duplizierung von Code oder Bildern, die online gefunden wurden und urheberrechtlich geschützt sind. Unterzeichner müssen angemessene Anstrengungen unternehmen, um ein solches Risiko zu mindern. Dies stellt eine willkommene Erleichterung im Vergleich zum zweiten Entwurf dar, bei dem Maßnahmen zur Vermeidung von „Overfitting“ vorgeschrieben waren.

Benennung eines Ansprechpartners

Unterzeichner müssen einen Ansprechpartner für Rechteinhaber benennen und ein Verfahren implementieren, das es Rechteinhabern ermöglicht, Beschwerden über Urheberrechtsverletzungen einzureichen. Unter dem 3. Entwurf können Unterzeichner Beschwerden, die unbegründet oder übermäßig sind, ablehnen.

Fazit und Empfehlungen für Unternehmen

Der 3. Entwurf enthält im Vergleich zum 2. Entwurf einige vernünftige Änderungen, die es Unternehmen erleichtern, den Verhaltenskodex angemessen einzuhalten. Es ist jedoch zu verstehen, dass der Verhaltenskodex weiterhin nur ein Entwurf ist und erheblichen Änderungen unterliegen kann. Es ist wahrscheinlich, aber nicht garantiert, dass die EU-Kommission den endgültigen Verhaltenskodex genehmigt.

More Insights

CII fordert klare Regeln für den Einsatz von KI im Finanzsektor

Der Chartered Insurance Institute (CII) hat klare Verantwortungsrahmen und eine sektorweite Schulungsstrategie gefordert, um den Einsatz von Künstlicher Intelligenz (KI) im Finanzdienstleistungssektor...

Künstliche Intelligenz in New York: Wichtige Gesetzesänderungen für Arbeitgeber im Jahr 2025

Im ersten Halbjahr 2025 hat New York, ähnlich wie andere Bundesstaaten, Gesetze zur Regulierung von Künstlicher Intelligenz (KI) auf Ebene der Bundesstaaten eingeführt. Insbesondere konzentriert sich...

Risikomanagement für Künstliche Intelligenz: Strategien zur Minimierung von Gefahren

Die Risiken von KI-Systemen können durch verschiedene Faktoren wie Datenqualität, Modellarchitektur und betriebliche Herausforderungen beeinflusst werden. Ein effektives Risikomanagement ist...

Wichtige Erkenntnisse zum EU-Gesetz über Künstliche Intelligenz

Die Europäische Union hat das Gesetz über künstliche Intelligenz (AI Act) eingeführt, das darauf abzielt, die Risiken und Möglichkeiten von KI-Technologien in Europa zu verwalten. Dieses Gesetz ist...

Koreas KI-Grundgesetz: Ein neuer Rahmen für künstliche Intelligenz

Südkorea hat sich mit dem Inkrafttreten des Gesetzes über die Entwicklung von Künstlicher Intelligenz und die Schaffung von Vertrauen, bekannt als AI Basic Act, an die Spitze der KI-Regulierung in...

EU AI-Gesetz und DORA: Finanzielle Risiken und Compliance neu definiert

Die EU AI Act und DORA stellen neue Anforderungen an Finanzinstitute, indem sie Transparenz und Resilienz in der Nutzung von KI-Systemen fordern. Unternehmen müssen die finanziellen Risiken...

KI-Regulierung im transatlantischen Kontext

Künstliche Intelligenz (KI) hat sich zu einer der bedeutendsten technologischen Kräfte der Gegenwart entwickelt und hat das Potenzial, Volkswirtschaften, Gesellschaften und die globale Governance...

EU-Kommission plant Maßnahmen zur Förderung von KI-Gigafabriken

Die EU-Kommission möchte die Hürden für den Einsatz von Künstlicher Intelligenz (KI) abbauen und plant, die Infrastruktur für Datenzentren in Europa erheblich auszubauen. Dies geschieht im Rahmen des...