Richtlinienentwurf zum EU AI Act präzisiert Urheberrechtsvorschriften

Richtlinien-Entwurf des EU AI Act präzisiert Urheberrechtsanforderungen

Am 11. März 2025 veröffentlichte das EU AI Office einen Entwurf für den Verhaltenskodex (CoP), der die Verpflichtungen von Anbietern allgemeiner KI-Modelle gemäß dem EU AI Act regelt. Diese Version ist praktikabler als ihre Vorgänger und muss bis zum 2. Mai finalisiert werden, sodass den Anbietern nur noch drei Monate bleiben, um sich vorzubereiten, bevor ihre Verpflichtungen am 2. August in Kraft treten.

Die Risiken sind hoch: Ein Verstoß gegen die Vorschriften kann Geldbußen von bis zu 3% des jährlichen globalen Umsatzes des Anbieters oder 15 Millionen Euro (ca. 16,2 Millionen US-Dollar), je nachdem, welcher Betrag höher ist, nach sich ziehen und möglicherweise sogar ein EU-Verbot des Modells zur Folge haben.

Über 1.000 Stakeholder haben mit dem EU AI Office an dem CoP gearbeitet. Dieser Artikel gibt einen Überblick über den Status des CoP in Bezug auf urheberrechtsbezogene Verpflichtungen.

Praxis und Einhaltung

Der EU AI Act führte das Konzept eines CoP als detaillierte Anleitung für Anbieter allgemeiner KI-Modelle ein, um ihre Verpflichtungen gemäß dem Gesetz zu erfüllen. Obwohl die Einhaltung des CoP freiwillig ist, wird sie als Nachweis für die Einhaltung des Gesetzes angesehen, bis „harmonisierte Standards“ für die Verpflichtungen festgelegt sind.

Der dritte Entwurf des CoP erleichtert die urheberrechtsbezogenen Maßnahmen, die nun auf dem Prinzip basieren, dass die Einhaltung angemessen und verhältnismäßig zur Größe und Kapazität des einzelnen Anbieters sein sollte.

Urheberrechtspolitik

Anbieter allgemeiner KI-Modelle müssen eine Politik zur Einhaltung des europäischen Urheberrechts einführen. Die CoP-Spezifikationen erfordern:

  • Anbieter müssen interne Compliance-Verantwortlichkeiten zuweisen, und ein einziges Dokument muss alle urheberrechtsrelevanten Verpflichtungen des Anbieters beschreiben. Es wird empfohlen, eine aktuelle Zusammenfassung der Politik zu veröffentlichen.
  • Anbieter werden aufgefordert, das Risiko zu mindern, dass ein nachgelagertes KI-System, in das das Modell integriert ist, wiederholt urheberrechtsverletzende Ausgaben generiert. Sie müssen „angemessene Anstrengungen“ unternehmen, um die Memorierung von Trainingsinhalten, die zu solchen Ausgaben führen könnten, zu verhindern.
  • Die erste CoP-Entwurf erklärte, dass die Verpflichtungen eines Anbieters nur diese Aktionen betreffen. Obwohl dies aus dem CoP-Text entfernt wurde, bleibt diese Aussage im FAQ des AI Office.

Opt-Outs und Training

Anbieter müssen maschinenlesbare Rechtsvorbehalte oder Opt-Outs von Rechteinhabern zur Nutzung ihrer Inhalte für Text- und Datenanalysen identifizieren und einhalten. Eine Erwägung fordert, dass diese Verpflichtung sowohl für KI-Training außerhalb als auch innerhalb der EU gilt.

Die CoP-Spezifikationen besagen, dass Anbieter beim Crawlen des Webs die effektiven technologischen Maßnahmen (z. B. Paywalls) nicht umgehen dürfen, um sicherzustellen, dass der Inhalt rechtmäßig zugänglich ist.

  • Die Anbieter müssen „angemessene Anstrengungen“ unternehmen, um „Piraterie-Domains“ von ihrem Crawling auszuschließen.
  • Wenn Anbieter Trainingsmaterial verwenden, das sie nicht selbst gecrawlt haben, müssen sie „angemessene Anstrengungen“ unternehmen, um Informationen darüber zu erhalten, ob das Material unter Berücksichtigung der Rechtevorbehalte im Robots.txt erhalten wurde.

Schlussfolgerungen

Obwohl der CoP nicht alle rechtlichen und technischen Unsicherheiten für die Einhaltung der GPAI-Modelle unter dem Gesetz löst, bietet er einen ersten strukturierten Compliance-Weg. Die Klarstellung von robots.txt als aktuellen Standard für TDM-Opt-Outs reduziert Unsicherheiten erheblich und eröffnet den Stakeholdern die Möglichkeit, gemeinsam weitere Standards zu etablieren.

Eine Schlüsselherausforderung bleibt die Definition, was Anbieter tun müssen, um urheberrechtsverletzende Ausgaben von nachgelagerten Systemen zu verhindern. Die neuesten Entwürfe haben sich von dem Begriff „Überanpassung“ entfernt, aber der aktuelle Ansatz – die wiederholte Memorierung von Trainingsinhalten in Ausgaben zu verhindern – bleibt unklar.

Jetzt ist die letzte Gelegenheit, gehört zu werden, da die Stakeholder eingeladen sind, bis zum 30. März finales Feedback einzureichen und an den letzten Diskussionsrunden teilzunehmen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...