Frist verpasst: Verzögerung des EU GPAI-Codes bis August

Frist für den AI Act verpasst, da der EU GPAI-Code bis August verzögert wurde

Das endgültige Dokument des EU-Generalanwendungs-AI (GPAI) Verhaltenskodex sollte bis zum 2. Mai veröffentlicht werden. Viele, einschließlich uns, warteten gespannt auf diesen finalen Entwurf, doch die Frist ist verstrichen, ohne dass etwas veröffentlicht wurde.

Das EU AI Office hat nun bestätigt, dass der Kodex tatsächlich verzögert wurde, wobei die endgültige Version voraussichtlich „bis August“ veröffentlicht wird. Dies deutet darauf hin, dass möglicherweise nicht viel Zeit zwischen der Veröffentlichung des endgültigen Entwurfs und dem Inkrafttreten der Bestimmungen des EU AI Acts für GPAI-Modellanbieter am 2. August bleibt.

Was ist der GPAI-Code?

Für diejenigen, die neu in diesem Thema sind, ist der GPAI-Code ein freiwilliger Verhaltenskodex, der von „unabhängigen Experten“ mit Beteiligung von Interessengruppen verfasst wurde. Er soll den Anbietern von GPAI-Modellen helfen, die Einhaltung ihrer Verpflichtungen gemäß den Artikeln 53 und 56 des EU AI Acts nachzuweisen. Dazu gehören Bestimmungen zu Transparenz, Urheberrecht sowie Sicherheit und Schutz.

Die meisten der im GPAI-Code festgelegten Verpflichtungen gelten nur für Anbieter von GPAI-Modellen mit systemischen Risiken, aber einige gelten für alle Anbieter von GPAI-Modellen, die auf dem EU-Markt angeboten werden. Dazu gehört eine Verpflichtung und damit verbundene Maßnahmen im Hinblick auf Urheberrechte, die umstritten sind und denen viele Menschen aufmerksam folgen.

Warum die Verzögerung?

Zum Zeitpunkt des Schreibens wurden keine offiziellen Erklärungen vom EU AI Office veröffentlicht, um die Verzögerung zu erklären. Presseberichte haben jedoch zwei Hauptgründe genannt, die den an der Erstellung des Entwurfs beteiligten Interessengruppen mitgeteilt wurden:

  1. Um den Teilnehmern mehr Zeit zu geben, um Feedback zum dritten Entwurf des GPAI-Codes zu geben.
  2. Um den Teilnehmern Zeit zu geben, um auf die separate und laufende Beratung der EU-Kommission zu reagieren, die bis zum 22. Mai offen ist. Diese zielt auch darauf ab, bestimmte Aspekte der Verpflichtungen der GPAI-Modellanbieter unter dem EU AI Act zu klären.

Andere haben angedeutet, dass die Verzögerung dem EU AI Office auch Zeit geben wird, um die Unterstützung für den GPAI-Code von den großen AI-Anbietern zu bewerten. Ein entscheidender Faktor dafür, ob dieser Kodex letztendlich erfolgreich sein wird, hängt davon ab, ob die Anbieter von GPAI-Modellen tatsächlich zustimmen und sich daran halten.

Kommentar

Diese Verzögerung ist nicht völlig unerwartet. Es war schon immer eine große Herausforderung, alle Beteiligten auf die Form des GPAI-Codes auszurichten, insbesondere angesichts der umstrittenen Bereiche, die behandelt werden, wie die Fragen zum Urheberrecht.

Mit starken, diametral entgegengesetzten Ansichten auf beiden Seiten raised dies die Frage, ob vielleicht eine politische Lösung erforderlich sein wird. Tatsächlich haben die EU-Gesetzgeber dies klar vorausgesehen, indem sie im AI Act festlegten, dass, wenn der GPAI-Code bis zum 2. August nicht finalisiert ist oder das AI Office den endgültigen Entwurf nach Bewertung als unzureichend erachtet, die EU-Kommission „gemeinsame Regeln“ durch einen Durchführungsakt bereitstellen kann.

Es ist jedoch wichtig zu beachten, dass die im GPAI-Code behandelten Themen nicht die einzigen Hindernisse sind, mit denen große Tech-Unternehmen konfrontiert sind, die AI-Produkte in der EU auf den Markt bringen möchten. Sie stehen auch vor Herausforderungen von europäischen Datenschutzbehörden, während sie versuchen, Fragen der DSGVO im Zusammenhang mit der Verwendung persönlicher Daten beim Training zu klären.

Zuletzt hat die Irische Datenschutzkommission angekündigt, eine Untersuchung darüber einzuleiten, wie die öffentlich zugänglichen Beiträge von EU-Nutzern auf der X-Plattform genutzt werden, um X’s Grok LLMs zu trainieren. Der Fokus liegt dabei insbesondere auf der Verarbeitung persönlicher Daten in diesen Beiträgen sowie der Rechtmäßigkeit und Transparenz dieser Verarbeitung. Eine deutsche Verbraucherrechtsorganisation hat kürzlich Meta wegen seiner AI-Trainingspläne, die Inhalte von Facebook und Instagram nutzen, gewarnt, wobei diese Warnung öffentliche Unterstützung von der Datenschutzlobbygruppe noyb erhielt.

More Insights

Risiken der KI im Compliance-Bereich

Das schnelle Wachstum der künstlichen Intelligenz (KI), insbesondere der generativen KI (GenAI) und Chatbots, bietet Unternehmen zahlreiche Möglichkeiten zur Verbesserung ihrer Arbeitsweise...

AI-Kompetenz: Anforderungen und Umsetzung im Unternehmen

Die Verpflichtung zur KI-Kompetenz gilt seit dem 2. Februar 2025 für alle, die mit KI-Systemen in Verbindung stehen. Die Kommission erwartet von den Anbietern und Anwendern von KI-Systemen, dass sie...

Ethische Herausforderungen der KI: Strategien für verantwortungsvolles Handeln

Künstliche Intelligenz (KI) durchdringt zunehmend kritische Entscheidungsprozesse in verschiedenen Branchen, weshalb robuste ethische Governance-Rahmenwerke von entscheidender Bedeutung sind. Die...

Rechtliche Personhood für KI: Eine dringende Debatte

Künstliche Intelligenz ist nicht mehr auf dem Weg, sie ist bereits etabliert. Angesichts der schnellen Integration von KI müssen wir die dringende Frage stellen: Soll KI irgendeine Form von...

Datenherkunft als Schlüssel zur KI-Governance für CISOs

Künstliche Intelligenz hat schleichend in zentrale Funktionen des Unternehmens Einzug gehalten, und viele dieser Funktionen basieren auf großen Sprachmodellen (LLMs). Die Annahme der Sicherheit der...

Ausgewogene KI-Regulierung für die Philippinen

Eine Abgeordnete auf den Philippinen fordert einen vorsichtigen und konsulativen Ansatz zur Regulierung von Künstlicher Intelligenz (KI), um sicherzustellen, dass die Richtlinien eine ethische...

Chinas Weg zur offenen KI-Governance

Chinas schnelle Fortschritte im Bereich der künstlichen Intelligenz (KI) werden zunehmend durch eine starke Betonung der Open-Source-Zusammenarbeit vorangetrieben. Dies ermöglicht es Unternehmen...

Neun Schritte zur effektiven KI-Governance

Die AI-Governance ist entscheidend, um die Integrität, Verantwortlichkeit und Sicherheit der Datenökosysteme zu gewährleisten, die KI-Modelle antreiben. Ohne starke Kontrollen können KI-Systeme...