Änderungen der Anforderungen an die Urheberrechtskonformität im GPAI-Code

GPAI Verhaltenskodex – Drittes Entwurf: Änderungen der Anforderungen an die Urheberrechtskonformität

Das dritte Entwurf des GPAI Verhaltenskodex behandelt die Einhaltung der Urheberrechtsanforderungen, die sich aus dem Europäischen KI-Gesetz (Verordnung (EU) 2024/1689, „KI-Gesetz“) ergeben. Anbieter von General-Purpose AI („GPAI“) Modellen, wie Modelle der GPT-Familie, Llama oder Gemini, müssen bestimmte Anforderungen erfüllen, einschließlich der Erstellung von Dokumentationen und der Implementierung von Richtlinien zur Einhaltung des EU-Urheberrechts.

Um die Einhaltung dieser Anforderungen zu erleichtern, sieht das KI-Gesetz die Erstellung von Verhaltenskodizes für die Nutzung von GPAI-Modellen vor. Auf Einladung des KI-Büros haben verschiedene Experten und Interessengruppen vier Arbeitsgruppen eingerichtet, um einen ersten Verhaltenskodex zu entwerfen. Wenn die EU-Kommission diesen Verhaltenskodex genehmigt, wird er innerhalb der EU „allgemeine Gültigkeit“ haben. Durch die Annahme des genehmigten GPAI Verhaltenskodex können Unternehmen proaktive Compliance demonstrieren und möglicherweise regulatorische Überprüfungen und Strafen vermeiden.

Wer ist davon betroffen?

Der Verhaltenskodex ist in erster Linie für Anbieter von GPAI-Modellen relevant. GPAI-Modelle sind Modelle, die eine signifikante Allgemeinheit aufweisen und in der Lage sind, eine Vielzahl von unterschiedlichen Aufgaben kompetent auszuführen. Dazu gehören Anbieter bekannter großer Sprachmodelle wie GPT (OpenAI), Llama (Meta), Gemini (Google) oder Mistral (Mistral AI). Auch kleinere Modellanbieter können betroffen sein, solange ihre Modelle für eine breitere Palette von Aufgaben verwendet werden können.

Zusätzlich sollten auch „nachgelagerte Anbieter“, d.h. Unternehmen, die GPAI-Modelle in ihre KI-Systeme implementieren, sich mit dem Verhaltenskodex vertraut machen. Der Verhaltenskodex könnte zu einem quasi-Standard für GPAI-Modelle werden, was KI-Systementwickler von einem GPAI-Modell erwarten können.

Wichtige Konzepte des Verhaltenskodex zur Urheberrechtsgesetzgebung

Anbieter von GPAI-Modellen sind verpflichtet, eine Richtlinie zur Einhaltung des EU-Urheberrechts (Art. 53 (1) (c) KI-Gesetz) zu implementieren. Da es bisher keine ähnliche Anforderung gab, gibt es keine praktischen Leitlinien dafür, wie eine solche Richtlinie aussehen sollte. Der Verhaltenskodex soll diese Lücke schließen.

Die wichtigsten Maßnahmen, die von den Anbietern umgesetzt werden müssen, sind:

Urheberrechtspolitik

Anbieter, die den Verhaltenskodex unterzeichnen („Unterzeichner“), müssen eine Urheberrechtspolitik zur Einhaltung des EU-Urheberrechts erstellen, aktuell halten und umsetzen. Diese Anforderung ist bereits direkt im KI-Gesetz verankert. Unterzeichner müssen ebenfalls sicherstellen, dass die Urheberrechtspolitik innerhalb ihrer Organisation eingehalten wird. Ein wichtiger Unterschied zum zweiten Entwurf besteht darin, dass Unterzeichner nicht mehr verpflichtet sind, die Urheberrechtspolitik zu veröffentlichen, sondern lediglich dazu ermutigt werden.

Web-Crawling von urheberrechtlich geschütztem Inhalt

Unterzeichner dürfen im Allgemeinen Web-Crawler für die Zwecke des Text- und Daten-Mining („TDM“) nutzen, um Trainingsdaten für ihre GPAI-Modelle zu gewinnen. Dabei müssen sie jedoch sicherstellen, dass die Crawler Technologien respektieren, die den Zugriff auf urheberrechtlich geschützte Materialien einschränken, wie z.B. Bezahlschranken.

Identifizierung und Einhaltung von TDM-Opt-outs

Unterzeichner müssen sicherstellen, dass Web-Crawler ein TDM-Opt-out, das von den Rechteinhabern erklärt wurde, identifizieren und einhalten. TDM ist gemäß dem EU-Urheberrecht im Allgemeinen erlaubt, jedoch können Rechteinhaber erklären, dass sie nicht teilnehmen möchten. Die 3. Entwurf spezifiziert die Anforderungen für Web-Crawler, indem sie festlegt, dass diese das weit verbreitete robots.txt-Protokoll identifizieren und einhalten müssen.

Risikominderung zur Vermeidung der Produktion urheberrechtsverletzender Ausgaben

Ein Risiko bei der Nutzung von KI besteht darin, dass die KI Ausgaben generiert, die Urheberrechte verletzen, z.B. durch die Duplizierung von Code oder Bildern, die online gefunden wurden und urheberrechtlich geschützt sind. Unterzeichner müssen angemessene Anstrengungen unternehmen, um ein solches Risiko zu mindern. Dies stellt eine willkommene Erleichterung im Vergleich zum zweiten Entwurf dar, bei dem Maßnahmen zur Vermeidung von „Overfitting“ vorgeschrieben waren.

Benennung eines Ansprechpartners

Unterzeichner müssen einen Ansprechpartner für Rechteinhaber benennen und ein Verfahren implementieren, das es Rechteinhabern ermöglicht, Beschwerden über Urheberrechtsverletzungen einzureichen. Unter dem 3. Entwurf können Unterzeichner Beschwerden, die unbegründet oder übermäßig sind, ablehnen.

Fazit und Empfehlungen für Unternehmen

Der 3. Entwurf enthält im Vergleich zum 2. Entwurf einige vernünftige Änderungen, die es Unternehmen erleichtern, den Verhaltenskodex angemessen einzuhalten. Es ist jedoch zu verstehen, dass der Verhaltenskodex weiterhin nur ein Entwurf ist und erheblichen Änderungen unterliegen kann. Es ist wahrscheinlich, aber nicht garantiert, dass die EU-Kommission den endgültigen Verhaltenskodex genehmigt.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...