Frist verpasst: Verzögerung des EU GPAI-Codes bis August

Frist für den AI Act verpasst, da der EU GPAI-Code bis August verzögert wurde

Das endgültige Dokument des EU-Generalanwendungs-AI (GPAI) Verhaltenskodex sollte bis zum 2. Mai veröffentlicht werden. Viele, einschließlich uns, warteten gespannt auf diesen finalen Entwurf, doch die Frist ist verstrichen, ohne dass etwas veröffentlicht wurde.

Das EU AI Office hat nun bestätigt, dass der Kodex tatsächlich verzögert wurde, wobei die endgültige Version voraussichtlich „bis August“ veröffentlicht wird. Dies deutet darauf hin, dass möglicherweise nicht viel Zeit zwischen der Veröffentlichung des endgültigen Entwurfs und dem Inkrafttreten der Bestimmungen des EU AI Acts für GPAI-Modellanbieter am 2. August bleibt.

Was ist der GPAI-Code?

Für diejenigen, die neu in diesem Thema sind, ist der GPAI-Code ein freiwilliger Verhaltenskodex, der von „unabhängigen Experten“ mit Beteiligung von Interessengruppen verfasst wurde. Er soll den Anbietern von GPAI-Modellen helfen, die Einhaltung ihrer Verpflichtungen gemäß den Artikeln 53 und 56 des EU AI Acts nachzuweisen. Dazu gehören Bestimmungen zu Transparenz, Urheberrecht sowie Sicherheit und Schutz.

Die meisten der im GPAI-Code festgelegten Verpflichtungen gelten nur für Anbieter von GPAI-Modellen mit systemischen Risiken, aber einige gelten für alle Anbieter von GPAI-Modellen, die auf dem EU-Markt angeboten werden. Dazu gehört eine Verpflichtung und damit verbundene Maßnahmen im Hinblick auf Urheberrechte, die umstritten sind und denen viele Menschen aufmerksam folgen.

Warum die Verzögerung?

Zum Zeitpunkt des Schreibens wurden keine offiziellen Erklärungen vom EU AI Office veröffentlicht, um die Verzögerung zu erklären. Presseberichte haben jedoch zwei Hauptgründe genannt, die den an der Erstellung des Entwurfs beteiligten Interessengruppen mitgeteilt wurden:

  1. Um den Teilnehmern mehr Zeit zu geben, um Feedback zum dritten Entwurf des GPAI-Codes zu geben.
  2. Um den Teilnehmern Zeit zu geben, um auf die separate und laufende Beratung der EU-Kommission zu reagieren, die bis zum 22. Mai offen ist. Diese zielt auch darauf ab, bestimmte Aspekte der Verpflichtungen der GPAI-Modellanbieter unter dem EU AI Act zu klären.

Andere haben angedeutet, dass die Verzögerung dem EU AI Office auch Zeit geben wird, um die Unterstützung für den GPAI-Code von den großen AI-Anbietern zu bewerten. Ein entscheidender Faktor dafür, ob dieser Kodex letztendlich erfolgreich sein wird, hängt davon ab, ob die Anbieter von GPAI-Modellen tatsächlich zustimmen und sich daran halten.

Kommentar

Diese Verzögerung ist nicht völlig unerwartet. Es war schon immer eine große Herausforderung, alle Beteiligten auf die Form des GPAI-Codes auszurichten, insbesondere angesichts der umstrittenen Bereiche, die behandelt werden, wie die Fragen zum Urheberrecht.

Mit starken, diametral entgegengesetzten Ansichten auf beiden Seiten raised dies die Frage, ob vielleicht eine politische Lösung erforderlich sein wird. Tatsächlich haben die EU-Gesetzgeber dies klar vorausgesehen, indem sie im AI Act festlegten, dass, wenn der GPAI-Code bis zum 2. August nicht finalisiert ist oder das AI Office den endgültigen Entwurf nach Bewertung als unzureichend erachtet, die EU-Kommission „gemeinsame Regeln“ durch einen Durchführungsakt bereitstellen kann.

Es ist jedoch wichtig zu beachten, dass die im GPAI-Code behandelten Themen nicht die einzigen Hindernisse sind, mit denen große Tech-Unternehmen konfrontiert sind, die AI-Produkte in der EU auf den Markt bringen möchten. Sie stehen auch vor Herausforderungen von europäischen Datenschutzbehörden, während sie versuchen, Fragen der DSGVO im Zusammenhang mit der Verwendung persönlicher Daten beim Training zu klären.

Zuletzt hat die Irische Datenschutzkommission angekündigt, eine Untersuchung darüber einzuleiten, wie die öffentlich zugänglichen Beiträge von EU-Nutzern auf der X-Plattform genutzt werden, um X’s Grok LLMs zu trainieren. Der Fokus liegt dabei insbesondere auf der Verarbeitung persönlicher Daten in diesen Beiträgen sowie der Rechtmäßigkeit und Transparenz dieser Verarbeitung. Eine deutsche Verbraucherrechtsorganisation hat kürzlich Meta wegen seiner AI-Trainingspläne, die Inhalte von Facebook und Instagram nutzen, gewarnt, wobei diese Warnung öffentliche Unterstützung von der Datenschutzlobbygruppe noyb erhielt.

More Insights

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...

Vertrauenswürdige KI: Erfolgsfaktor für Unternehmen im Zeitalter der Innovation

In den letzten zwanzig Jahren hat sich die Abhängigkeit von künstlicher Intelligenz (KI) zur Entscheidungsfindung in Unternehmen stark entwickelt. Um in diesem neuen Modell effektiv zu arbeiten...

KI-Regulierung in Spanien: Fortschritte und Herausforderungen

Spanien ist Vorreiter in der KI-Governance mit dem ersten KI-Regulator Europas (AESIA) und einem bereits aktiven regulatorischen Sandbox. Zudem wird ein nationaler KI-Gesetzentwurf vorbereitet, der...

Globale Regulierung von KI: Ein Überblick über Israel

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist zunehmend in das öffentliche Bewusstsein gerückt. Regierungen und Aufsichtsbehörden weltweit müssen schnell...

KI im Glücksspiel: Chancen und Herausforderungen der Regulierung

Der Einsatz von Künstlicher Intelligenz (KI) im Glücksspielsektor bringt sowohl Chancen als auch Risiken mit sich, da die regulatorischen Anforderungen steigen und die Haftungsrisiken zunehmen...