Richtlinienentwurf zum EU AI Act: Klärung der Urheberrechtsanforderungen

EU AI Act Richtlinienentwurf schärft Urheberrechtsvorgaben

Das EU AI Office hat am 11. März einen Entwurf (CoP) veröffentlicht, der die Verpflichtungen von Anbietern allgemeiner KI-Modelle im Rahmen des EU AI Act regelt. Dieser Entwurf ist praktikabler als seine Vorgänger und muss bis zum 2. Mai finalisiert werden, was den Anbietern nur drei Monate Zeit lässt, um ihre Verpflichtungen bis zum 2. August in Kraft zu setzen.

Die Risiken sind hoch: Ein Verstoß gegen die Vorschriften kann Geldstrafen von bis zu 3 % des jährlichen globalen Umsatzes des Anbieters oder 15 Millionen Euro (ca. 16,2 Millionen Dollar), je nachdem, welcher Betrag höher ist, nach sich ziehen. Zudem könnte es zu einem EU-weiten Verbot des Modells kommen.

Über 1.000 Akteure haben mit dem EU AI Office an dem CoP gearbeitet. Dieser Artikel bietet einen Überblick über den Stand des CoP hinsichtlich der urheberrechtlichen Verpflichtungen.

Praxis und Compliance

Der EU AI Act führte das Konzept eines CoP als detaillierte Richtlinie für Anbieter allgemeiner KI-Modelle ein, um deren Verpflichtungen zu erfüllen. Obwohl die Einhaltung des CoP freiwillig ist, demonstriert sie die Compliance mit dem Gesetz, bis „harmonisierte Standards“ festgelegt sind. Alternativ können Anbieter andere Compliance-Methoden wählen, die einer individuellen Bewertung durch die Europäische Kommission unterliegen.

Der dritte Entwurf des CoP erleichtert die urheberrechtlichen Maßnahmen, die nun auf dem Prinzip beruhen, dass die Compliance angemessen und verhältnismäßig zur Größe und Kapazität des einzelnen Anbieters sein sollte.

Urheberrechtspolitik

Anbieter allgemeiner KI-Modelle müssen eine Richtlinie zur Einhaltung des europäischen Urheberrechts aufstellen. Die CoP-Spezifikationen erfordern:

  • Anbieter müssen interne Compliance-Verantwortlichkeiten zuweisen und ein einzelnes Dokument erstellen, das alle urheberrechtsrelevanten Verpflichtungen des Anbieters beschreibt. Es wird empfohlen, eine aktuelle Zusammenfassung der Richtlinie zu veröffentlichen.
  • Anbieter werden aufgefordert, das Risiko zu mindern, dass ein nachgelagertes KI-System, in das das Modell integriert wird, wiederholt urheberrechtsverletzende Ausgaben generiert. Sie müssen „angemessene Anstrengungen“ unternehmen, um ein Memorieren von Trainingsinhalten, das zu solchen Ausgaben führen könnte, zu verhindern. Anbieter müssen auch die urheberrechtsverletzende Nutzung des Modells in ihrer Nutzungsrichtlinie und in den Allgemeinen Geschäftsbedingungen untersagen, mit einer Ausnahme für Open-Source-Modelle.
  • Der erste Entwurf des CoP stellte fest, dass die Verpflichtungen eines Anbieters nur in Bezug auf Modifikationen und Feinabstimmungen gelten. Obwohl dieser Punkt aus dem CoP-Text entfernt wurde, bleibt diese Aussage im Q&A des AI Office zu allgemeinen KI-Modellen bestehen.

Opt-Outs und Training

Anbieter müssen maschinenlesbare Rechtsreservierungen oder Opt-Outs von Rechteinhabern für die Nutzung ihrer Inhalte für Text- und Datenanalysen identifizieren und einhalten, die ansonsten unter der EU-TDM-Urheberrechtsausnahme erlaubt wären. Eine Erwägung fordert, dass diese Verpflichtung sowohl für KI-Training außerhalb der EU als auch innerhalb der EU gilt.

Die CoP-Spezifikationen besagen, dass Anbieter bei der Text- und Datenanalyse rechtmäßig zugänglicher Materialien:

  • Im Einklang mit der TDM-Urheberrechtsausnahme keine effektiven technologischen Maßnahmen (z. B. Bezahlschranken) umgehen dürfen, wenn sie das Web selbst durchsuchen oder es durch Dritte durchsuchen lassen.
  • „Angemessene Anstrengungen“ unternehmen müssen, um „Piraterie-Domains“ von ihrem Crawling auszuschließen.
  • Wenn Anbieter Trainingsmaterial verwenden, das sie nicht selbst oder durch Agenten beschafft haben und für das sie keine Genehmigung des Rechteinhabers erhalten haben, müssen sie „angemessene Anstrengungen“ unternehmen, um Informationen darüber zu erhalten, ob das Material unter Beachtung der Rechtereservierungen im Robot Exclusion Protocol (robots.txt) erlangt wurde.

Schlussfolgerungen

Obwohl die CoP nicht alle rechtlichen und technischen Unsicherheiten hinsichtlich der Compliance von Anbietern allgemeiner KI-Modelle unter dem Gesetz löst, bietet sie einen ersten strukturierten Compliance-Weg. Die CoP bietet eine präzise Spezifikation, die die Unsicherheiten beim Umgang mit der robots.txt als aktuellem Standard für TDM-Opt-Outs erheblich reduziert. Ein zentrales Problem bleibt jedoch, zu definieren, was Modellanbieter tun müssen, um urheberrechtsverletzende Ausgaben von nachgelagerten Systemen zu verhindern.

Die Überarbeitung des Entwurfs zeigt, dass das Feedback der Stakeholder zu praktischen und umsetzbaren Lösungen anerkannt wird. Stakeholder sind eingeladen, bis zum 30. März finales Feedback zu geben und an den letzten Diskussionsrunden teilzunehmen. Es ist jetzt an der Zeit, sich Gehör zu verschaffen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...