Frist verpasst: Verzögerung des EU GPAI-Codes bis August

Frist für den AI Act verpasst, da der EU GPAI-Code bis August verzögert wurde

Das endgültige Dokument des EU-Generalanwendungs-AI (GPAI) Verhaltenskodex sollte bis zum 2. Mai veröffentlicht werden. Viele, einschließlich uns, warteten gespannt auf diesen finalen Entwurf, doch die Frist ist verstrichen, ohne dass etwas veröffentlicht wurde.

Das EU AI Office hat nun bestätigt, dass der Kodex tatsächlich verzögert wurde, wobei die endgültige Version voraussichtlich „bis August“ veröffentlicht wird. Dies deutet darauf hin, dass möglicherweise nicht viel Zeit zwischen der Veröffentlichung des endgültigen Entwurfs und dem Inkrafttreten der Bestimmungen des EU AI Acts für GPAI-Modellanbieter am 2. August bleibt.

Was ist der GPAI-Code?

Für diejenigen, die neu in diesem Thema sind, ist der GPAI-Code ein freiwilliger Verhaltenskodex, der von „unabhängigen Experten“ mit Beteiligung von Interessengruppen verfasst wurde. Er soll den Anbietern von GPAI-Modellen helfen, die Einhaltung ihrer Verpflichtungen gemäß den Artikeln 53 und 56 des EU AI Acts nachzuweisen. Dazu gehören Bestimmungen zu Transparenz, Urheberrecht sowie Sicherheit und Schutz.

Die meisten der im GPAI-Code festgelegten Verpflichtungen gelten nur für Anbieter von GPAI-Modellen mit systemischen Risiken, aber einige gelten für alle Anbieter von GPAI-Modellen, die auf dem EU-Markt angeboten werden. Dazu gehört eine Verpflichtung und damit verbundene Maßnahmen im Hinblick auf Urheberrechte, die umstritten sind und denen viele Menschen aufmerksam folgen.

Warum die Verzögerung?

Zum Zeitpunkt des Schreibens wurden keine offiziellen Erklärungen vom EU AI Office veröffentlicht, um die Verzögerung zu erklären. Presseberichte haben jedoch zwei Hauptgründe genannt, die den an der Erstellung des Entwurfs beteiligten Interessengruppen mitgeteilt wurden:

  1. Um den Teilnehmern mehr Zeit zu geben, um Feedback zum dritten Entwurf des GPAI-Codes zu geben.
  2. Um den Teilnehmern Zeit zu geben, um auf die separate und laufende Beratung der EU-Kommission zu reagieren, die bis zum 22. Mai offen ist. Diese zielt auch darauf ab, bestimmte Aspekte der Verpflichtungen der GPAI-Modellanbieter unter dem EU AI Act zu klären.

Andere haben angedeutet, dass die Verzögerung dem EU AI Office auch Zeit geben wird, um die Unterstützung für den GPAI-Code von den großen AI-Anbietern zu bewerten. Ein entscheidender Faktor dafür, ob dieser Kodex letztendlich erfolgreich sein wird, hängt davon ab, ob die Anbieter von GPAI-Modellen tatsächlich zustimmen und sich daran halten.

Kommentar

Diese Verzögerung ist nicht völlig unerwartet. Es war schon immer eine große Herausforderung, alle Beteiligten auf die Form des GPAI-Codes auszurichten, insbesondere angesichts der umstrittenen Bereiche, die behandelt werden, wie die Fragen zum Urheberrecht.

Mit starken, diametral entgegengesetzten Ansichten auf beiden Seiten raised dies die Frage, ob vielleicht eine politische Lösung erforderlich sein wird. Tatsächlich haben die EU-Gesetzgeber dies klar vorausgesehen, indem sie im AI Act festlegten, dass, wenn der GPAI-Code bis zum 2. August nicht finalisiert ist oder das AI Office den endgültigen Entwurf nach Bewertung als unzureichend erachtet, die EU-Kommission „gemeinsame Regeln“ durch einen Durchführungsakt bereitstellen kann.

Es ist jedoch wichtig zu beachten, dass die im GPAI-Code behandelten Themen nicht die einzigen Hindernisse sind, mit denen große Tech-Unternehmen konfrontiert sind, die AI-Produkte in der EU auf den Markt bringen möchten. Sie stehen auch vor Herausforderungen von europäischen Datenschutzbehörden, während sie versuchen, Fragen der DSGVO im Zusammenhang mit der Verwendung persönlicher Daten beim Training zu klären.

Zuletzt hat die Irische Datenschutzkommission angekündigt, eine Untersuchung darüber einzuleiten, wie die öffentlich zugänglichen Beiträge von EU-Nutzern auf der X-Plattform genutzt werden, um X’s Grok LLMs zu trainieren. Der Fokus liegt dabei insbesondere auf der Verarbeitung persönlicher Daten in diesen Beiträgen sowie der Rechtmäßigkeit und Transparenz dieser Verarbeitung. Eine deutsche Verbraucherrechtsorganisation hat kürzlich Meta wegen seiner AI-Trainingspläne, die Inhalte von Facebook und Instagram nutzen, gewarnt, wobei diese Warnung öffentliche Unterstützung von der Datenschutzlobbygruppe noyb erhielt.

More Insights

Wenn ‚ausreichend‘ KI Sie teuer zu stehen kommt

In einer Welt, die von schnelleren und günstigeren Ergebnissen besessen ist, scheint "gut genug" bei rechtlichen und risikobezogenen Ausgaben verlockend. Doch Compliance ist kein Rennen – es ist ein...

EU-Code für allgemeine KI: Ein Schritt zur Compliance

Am 10. Juli 2025 veröffentlichte die Europäische Kommission die endgültige Version des allgemeinen KI-Verhaltenskodex. Dieser Kodex soll den Organisationen helfen, die Anforderungen des EU-KI-Gesetzes...

EU veröffentlicht KI-Code zur Unterstützung der Einhaltung neuer Vorschriften

Die Europäische Union hat einen neuen freiwilligen Verhaltenskodex veröffentlicht, um Unternehmen bei der Einhaltung des kommenden AI-Gesetzes zu unterstützen. Dieser Kodex konzentriert sich auf...

Verantwortungsvolles KI-Management im öffentlichen Beschaffungswesen

Die öffentliche Beschaffung spielt eine entscheidende Rolle bei der Gestaltung kritischer Entscheidungen über KI im öffentlichen Sektor. In Abwesenheit bundesstaatlicher Vorschriften bleibt die...

Pillar Security: Neuer AI-Sicherheitsrahmen für die Branche

Das Start-up Pillar Security hat ein KI-Sicherheitsframework codifiziert, das einen weiteren wichtigen Schritt in den Bemühungen der Branche darstellt, Strategien, Governance und Tools...

Tokio Marine führt Richtlinien für KI-Governance ein

Die Tokio Marine Holdings hat ein formelles AI-Governance-Rahmenwerk eingeführt, um die Entwicklung und Nutzung von künstlicher Intelligenz in ihren globalen Unternehmensgruppen zu leiten. Die...

Schatten-KI im Aufschwung: Governance muss nachziehen

Generative KI (GenAI) ist bereits tief in Unternehmen integriert, oft ohne formelle Genehmigung oder Kontrolle. Es ist entscheidend, klare Regeln und Richtlinien zu haben, um sensible Daten zu...

Politik der Fragmentierung und Einflussnahme in der KI-Regulierung

In der aktuellen Diskussion über die Regulierung von Künstlicher Intelligenz (KI) wird oft die Frage übersehen, welche Art von globaler Governance-Landschaft aus den nationalen Regulierungsbemühungen...

Politik der Fragmentierung und Einflussnahme in der KI-Regulierung

In der aktuellen Diskussion über die Regulierung von Künstlicher Intelligenz (KI) wird oft die Frage übersehen, welche Art von globaler Governance-Landschaft aus den nationalen Regulierungsbemühungen...