Richtlinienentwurf zum EU AI Act präzisiert Urheberrechtsvorschriften

Richtlinien-Entwurf des EU AI Act präzisiert Urheberrechtsanforderungen

Am 11. März 2025 veröffentlichte das EU AI Office einen Entwurf für den Verhaltenskodex (CoP), der die Verpflichtungen von Anbietern allgemeiner KI-Modelle gemäß dem EU AI Act regelt. Diese Version ist praktikabler als ihre Vorgänger und muss bis zum 2. Mai finalisiert werden, sodass den Anbietern nur noch drei Monate bleiben, um sich vorzubereiten, bevor ihre Verpflichtungen am 2. August in Kraft treten.

Die Risiken sind hoch: Ein Verstoß gegen die Vorschriften kann Geldbußen von bis zu 3% des jährlichen globalen Umsatzes des Anbieters oder 15 Millionen Euro (ca. 16,2 Millionen US-Dollar), je nachdem, welcher Betrag höher ist, nach sich ziehen und möglicherweise sogar ein EU-Verbot des Modells zur Folge haben.

Über 1.000 Stakeholder haben mit dem EU AI Office an dem CoP gearbeitet. Dieser Artikel gibt einen Überblick über den Status des CoP in Bezug auf urheberrechtsbezogene Verpflichtungen.

Praxis und Einhaltung

Der EU AI Act führte das Konzept eines CoP als detaillierte Anleitung für Anbieter allgemeiner KI-Modelle ein, um ihre Verpflichtungen gemäß dem Gesetz zu erfüllen. Obwohl die Einhaltung des CoP freiwillig ist, wird sie als Nachweis für die Einhaltung des Gesetzes angesehen, bis „harmonisierte Standards“ für die Verpflichtungen festgelegt sind.

Der dritte Entwurf des CoP erleichtert die urheberrechtsbezogenen Maßnahmen, die nun auf dem Prinzip basieren, dass die Einhaltung angemessen und verhältnismäßig zur Größe und Kapazität des einzelnen Anbieters sein sollte.

Urheberrechtspolitik

Anbieter allgemeiner KI-Modelle müssen eine Politik zur Einhaltung des europäischen Urheberrechts einführen. Die CoP-Spezifikationen erfordern:

  • Anbieter müssen interne Compliance-Verantwortlichkeiten zuweisen, und ein einziges Dokument muss alle urheberrechtsrelevanten Verpflichtungen des Anbieters beschreiben. Es wird empfohlen, eine aktuelle Zusammenfassung der Politik zu veröffentlichen.
  • Anbieter werden aufgefordert, das Risiko zu mindern, dass ein nachgelagertes KI-System, in das das Modell integriert ist, wiederholt urheberrechtsverletzende Ausgaben generiert. Sie müssen „angemessene Anstrengungen“ unternehmen, um die Memorierung von Trainingsinhalten, die zu solchen Ausgaben führen könnten, zu verhindern.
  • Die erste CoP-Entwurf erklärte, dass die Verpflichtungen eines Anbieters nur diese Aktionen betreffen. Obwohl dies aus dem CoP-Text entfernt wurde, bleibt diese Aussage im FAQ des AI Office.

Opt-Outs und Training

Anbieter müssen maschinenlesbare Rechtsvorbehalte oder Opt-Outs von Rechteinhabern zur Nutzung ihrer Inhalte für Text- und Datenanalysen identifizieren und einhalten. Eine Erwägung fordert, dass diese Verpflichtung sowohl für KI-Training außerhalb als auch innerhalb der EU gilt.

Die CoP-Spezifikationen besagen, dass Anbieter beim Crawlen des Webs die effektiven technologischen Maßnahmen (z. B. Paywalls) nicht umgehen dürfen, um sicherzustellen, dass der Inhalt rechtmäßig zugänglich ist.

  • Die Anbieter müssen „angemessene Anstrengungen“ unternehmen, um „Piraterie-Domains“ von ihrem Crawling auszuschließen.
  • Wenn Anbieter Trainingsmaterial verwenden, das sie nicht selbst gecrawlt haben, müssen sie „angemessene Anstrengungen“ unternehmen, um Informationen darüber zu erhalten, ob das Material unter Berücksichtigung der Rechtevorbehalte im Robots.txt erhalten wurde.

Schlussfolgerungen

Obwohl der CoP nicht alle rechtlichen und technischen Unsicherheiten für die Einhaltung der GPAI-Modelle unter dem Gesetz löst, bietet er einen ersten strukturierten Compliance-Weg. Die Klarstellung von robots.txt als aktuellen Standard für TDM-Opt-Outs reduziert Unsicherheiten erheblich und eröffnet den Stakeholdern die Möglichkeit, gemeinsam weitere Standards zu etablieren.

Eine Schlüsselherausforderung bleibt die Definition, was Anbieter tun müssen, um urheberrechtsverletzende Ausgaben von nachgelagerten Systemen zu verhindern. Die neuesten Entwürfe haben sich von dem Begriff „Überanpassung“ entfernt, aber der aktuelle Ansatz – die wiederholte Memorierung von Trainingsinhalten in Ausgaben zu verhindern – bleibt unklar.

Jetzt ist die letzte Gelegenheit, gehört zu werden, da die Stakeholder eingeladen sind, bis zum 30. März finales Feedback einzureichen und an den letzten Diskussionsrunden teilzunehmen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...