Frist für den AI Act verpasst, da der EU GPAI-Code bis August verzögert wurde
Das endgültige Dokument des EU-Generalanwendungs-AI (GPAI) Verhaltenskodex sollte bis zum 2. Mai veröffentlicht werden. Viele, einschließlich uns, warteten gespannt auf diesen finalen Entwurf, doch die Frist ist verstrichen, ohne dass etwas veröffentlicht wurde.
Das EU AI Office hat nun bestätigt, dass der Kodex tatsächlich verzögert wurde, wobei die endgültige Version voraussichtlich „bis August“ veröffentlicht wird. Dies deutet darauf hin, dass möglicherweise nicht viel Zeit zwischen der Veröffentlichung des endgültigen Entwurfs und dem Inkrafttreten der Bestimmungen des EU AI Acts für GPAI-Modellanbieter am 2. August bleibt.
Was ist der GPAI-Code?
Für diejenigen, die neu in diesem Thema sind, ist der GPAI-Code ein freiwilliger Verhaltenskodex, der von „unabhängigen Experten“ mit Beteiligung von Interessengruppen verfasst wurde. Er soll den Anbietern von GPAI-Modellen helfen, die Einhaltung ihrer Verpflichtungen gemäß den Artikeln 53 und 56 des EU AI Acts nachzuweisen. Dazu gehören Bestimmungen zu Transparenz, Urheberrecht sowie Sicherheit und Schutz.
Die meisten der im GPAI-Code festgelegten Verpflichtungen gelten nur für Anbieter von GPAI-Modellen mit systemischen Risiken, aber einige gelten für alle Anbieter von GPAI-Modellen, die auf dem EU-Markt angeboten werden. Dazu gehört eine Verpflichtung und damit verbundene Maßnahmen im Hinblick auf Urheberrechte, die umstritten sind und denen viele Menschen aufmerksam folgen.
Warum die Verzögerung?
Zum Zeitpunkt des Schreibens wurden keine offiziellen Erklärungen vom EU AI Office veröffentlicht, um die Verzögerung zu erklären. Presseberichte haben jedoch zwei Hauptgründe genannt, die den an der Erstellung des Entwurfs beteiligten Interessengruppen mitgeteilt wurden:
- Um den Teilnehmern mehr Zeit zu geben, um Feedback zum dritten Entwurf des GPAI-Codes zu geben.
- Um den Teilnehmern Zeit zu geben, um auf die separate und laufende Beratung der EU-Kommission zu reagieren, die bis zum 22. Mai offen ist. Diese zielt auch darauf ab, bestimmte Aspekte der Verpflichtungen der GPAI-Modellanbieter unter dem EU AI Act zu klären.
Andere haben angedeutet, dass die Verzögerung dem EU AI Office auch Zeit geben wird, um die Unterstützung für den GPAI-Code von den großen AI-Anbietern zu bewerten. Ein entscheidender Faktor dafür, ob dieser Kodex letztendlich erfolgreich sein wird, hängt davon ab, ob die Anbieter von GPAI-Modellen tatsächlich zustimmen und sich daran halten.
Kommentar
Diese Verzögerung ist nicht völlig unerwartet. Es war schon immer eine große Herausforderung, alle Beteiligten auf die Form des GPAI-Codes auszurichten, insbesondere angesichts der umstrittenen Bereiche, die behandelt werden, wie die Fragen zum Urheberrecht.
Mit starken, diametral entgegengesetzten Ansichten auf beiden Seiten raised dies die Frage, ob vielleicht eine politische Lösung erforderlich sein wird. Tatsächlich haben die EU-Gesetzgeber dies klar vorausgesehen, indem sie im AI Act festlegten, dass, wenn der GPAI-Code bis zum 2. August nicht finalisiert ist oder das AI Office den endgültigen Entwurf nach Bewertung als unzureichend erachtet, die EU-Kommission „gemeinsame Regeln“ durch einen Durchführungsakt bereitstellen kann.
Es ist jedoch wichtig zu beachten, dass die im GPAI-Code behandelten Themen nicht die einzigen Hindernisse sind, mit denen große Tech-Unternehmen konfrontiert sind, die AI-Produkte in der EU auf den Markt bringen möchten. Sie stehen auch vor Herausforderungen von europäischen Datenschutzbehörden, während sie versuchen, Fragen der DSGVO im Zusammenhang mit der Verwendung persönlicher Daten beim Training zu klären.
Zuletzt hat die Irische Datenschutzkommission angekündigt, eine Untersuchung darüber einzuleiten, wie die öffentlich zugänglichen Beiträge von EU-Nutzern auf der X-Plattform genutzt werden, um X’s Grok LLMs zu trainieren. Der Fokus liegt dabei insbesondere auf der Verarbeitung persönlicher Daten in diesen Beiträgen sowie der Rechtmäßigkeit und Transparenz dieser Verarbeitung. Eine deutsche Verbraucherrechtsorganisation hat kürzlich Meta wegen seiner AI-Trainingspläne, die Inhalte von Facebook und Instagram nutzen, gewarnt, wobei diese Warnung öffentliche Unterstützung von der Datenschutzlobbygruppe noyb erhielt.