Richtlinienentwurf zum EU AI Act: Klärung der Urheberrechtsanforderungen

EU AI Act Richtlinienentwurf schärft Urheberrechtsvorgaben

Das EU AI Office hat am 11. März einen Entwurf (CoP) veröffentlicht, der die Verpflichtungen von Anbietern allgemeiner KI-Modelle im Rahmen des EU AI Act regelt. Dieser Entwurf ist praktikabler als seine Vorgänger und muss bis zum 2. Mai finalisiert werden, was den Anbietern nur drei Monate Zeit lässt, um ihre Verpflichtungen bis zum 2. August in Kraft zu setzen.

Die Risiken sind hoch: Ein Verstoß gegen die Vorschriften kann Geldstrafen von bis zu 3 % des jährlichen globalen Umsatzes des Anbieters oder 15 Millionen Euro (ca. 16,2 Millionen Dollar), je nachdem, welcher Betrag höher ist, nach sich ziehen. Zudem könnte es zu einem EU-weiten Verbot des Modells kommen.

Über 1.000 Akteure haben mit dem EU AI Office an dem CoP gearbeitet. Dieser Artikel bietet einen Überblick über den Stand des CoP hinsichtlich der urheberrechtlichen Verpflichtungen.

Praxis und Compliance

Der EU AI Act führte das Konzept eines CoP als detaillierte Richtlinie für Anbieter allgemeiner KI-Modelle ein, um deren Verpflichtungen zu erfüllen. Obwohl die Einhaltung des CoP freiwillig ist, demonstriert sie die Compliance mit dem Gesetz, bis „harmonisierte Standards“ festgelegt sind. Alternativ können Anbieter andere Compliance-Methoden wählen, die einer individuellen Bewertung durch die Europäische Kommission unterliegen.

Der dritte Entwurf des CoP erleichtert die urheberrechtlichen Maßnahmen, die nun auf dem Prinzip beruhen, dass die Compliance angemessen und verhältnismäßig zur Größe und Kapazität des einzelnen Anbieters sein sollte.

Urheberrechtspolitik

Anbieter allgemeiner KI-Modelle müssen eine Richtlinie zur Einhaltung des europäischen Urheberrechts aufstellen. Die CoP-Spezifikationen erfordern:

  • Anbieter müssen interne Compliance-Verantwortlichkeiten zuweisen und ein einzelnes Dokument erstellen, das alle urheberrechtsrelevanten Verpflichtungen des Anbieters beschreibt. Es wird empfohlen, eine aktuelle Zusammenfassung der Richtlinie zu veröffentlichen.
  • Anbieter werden aufgefordert, das Risiko zu mindern, dass ein nachgelagertes KI-System, in das das Modell integriert wird, wiederholt urheberrechtsverletzende Ausgaben generiert. Sie müssen „angemessene Anstrengungen“ unternehmen, um ein Memorieren von Trainingsinhalten, das zu solchen Ausgaben führen könnte, zu verhindern. Anbieter müssen auch die urheberrechtsverletzende Nutzung des Modells in ihrer Nutzungsrichtlinie und in den Allgemeinen Geschäftsbedingungen untersagen, mit einer Ausnahme für Open-Source-Modelle.
  • Der erste Entwurf des CoP stellte fest, dass die Verpflichtungen eines Anbieters nur in Bezug auf Modifikationen und Feinabstimmungen gelten. Obwohl dieser Punkt aus dem CoP-Text entfernt wurde, bleibt diese Aussage im Q&A des AI Office zu allgemeinen KI-Modellen bestehen.

Opt-Outs und Training

Anbieter müssen maschinenlesbare Rechtsreservierungen oder Opt-Outs von Rechteinhabern für die Nutzung ihrer Inhalte für Text- und Datenanalysen identifizieren und einhalten, die ansonsten unter der EU-TDM-Urheberrechtsausnahme erlaubt wären. Eine Erwägung fordert, dass diese Verpflichtung sowohl für KI-Training außerhalb der EU als auch innerhalb der EU gilt.

Die CoP-Spezifikationen besagen, dass Anbieter bei der Text- und Datenanalyse rechtmäßig zugänglicher Materialien:

  • Im Einklang mit der TDM-Urheberrechtsausnahme keine effektiven technologischen Maßnahmen (z. B. Bezahlschranken) umgehen dürfen, wenn sie das Web selbst durchsuchen oder es durch Dritte durchsuchen lassen.
  • „Angemessene Anstrengungen“ unternehmen müssen, um „Piraterie-Domains“ von ihrem Crawling auszuschließen.
  • Wenn Anbieter Trainingsmaterial verwenden, das sie nicht selbst oder durch Agenten beschafft haben und für das sie keine Genehmigung des Rechteinhabers erhalten haben, müssen sie „angemessene Anstrengungen“ unternehmen, um Informationen darüber zu erhalten, ob das Material unter Beachtung der Rechtereservierungen im Robot Exclusion Protocol (robots.txt) erlangt wurde.

Schlussfolgerungen

Obwohl die CoP nicht alle rechtlichen und technischen Unsicherheiten hinsichtlich der Compliance von Anbietern allgemeiner KI-Modelle unter dem Gesetz löst, bietet sie einen ersten strukturierten Compliance-Weg. Die CoP bietet eine präzise Spezifikation, die die Unsicherheiten beim Umgang mit der robots.txt als aktuellem Standard für TDM-Opt-Outs erheblich reduziert. Ein zentrales Problem bleibt jedoch, zu definieren, was Modellanbieter tun müssen, um urheberrechtsverletzende Ausgaben von nachgelagerten Systemen zu verhindern.

Die Überarbeitung des Entwurfs zeigt, dass das Feedback der Stakeholder zu praktischen und umsetzbaren Lösungen anerkannt wird. Stakeholder sind eingeladen, bis zum 30. März finales Feedback zu geben und an den letzten Diskussionsrunden teilzunehmen. Es ist jetzt an der Zeit, sich Gehör zu verschaffen.

More Insights

Verantwortliche KI für .NET-Entwickler: Ein praktischer Leitfaden

In der heutigen Ära der Künstlichen Intelligenz (KI) stehen wir vor der Herausforderung, AI-Systeme zu vertrauen. Der Artikel erläutert die sechs Grundsätze von Responsible AI, die von Microsoft...

KI im Risikomanagement und der Compliance im Bankenwesen

In der heutigen komplexen Bankenlandschaft ist KI nicht mehr nur ein Nice-to-Have, sondern wird zur neuen Risikomanagement-Engine, die zentral dafür ist, wie Finanzinstitute Bedrohungen identifizieren...

Kalifornien führt wegweisendes Gesetz zur AI-Transparenz ein

Die kalifornischen Gesetzgeber haben mit dem Gesetz zur Transparenz in der künstlichen Intelligenz einen wichtigen Schritt zur Gewährleistung von Verantwortung und Sicherheit in der Entwicklung von...

Herausforderungen bei der Nutzung von KI-Anwendungen im Recruiting

Die Verwendung von KI-Tools im Bewerbungsprozess ermöglicht es Unternehmen, ihre Abläufe zu optimieren und effizienter zu gestalten. Arbeitgeber müssen jedoch sicherstellen, dass die verwendeten...

Die vier Säulen verantwortungsvoller KI-Systeme

Da generative KI die Art und Weise, wie Unternehmen arbeiten, transformiert, ist es entscheidend, sicherzustellen, dass KI-Systeme mit angemessenen Sicherheitsvorkehrungen implementiert werden. Die...

Verantwortungsvolle KI: Inklusive Gestaltung für Schwellenmärkte

Dieser Artikel beschreibt, wie künstliche Intelligenz in aufstrebenden Märkten verantwortungsvoll gestaltet werden kann, um Inklusion durch Design zu fördern. Es werden drei wesentliche Säulen der...