EU AI-Gesetz: Verpflichtungen und Kodex für GPAI-Modelle

EU AI Act: GPAI-Modellpflichten und Kodex der Praxis

Am 10. Juli 2025 veröffentlichte das Europäische AI-Büro die endgültige Version des Kodex der Praxis (Code of Practice, CoP) für Anbieter von General Purpose AI (GPAI)-Modellen im Rahmen des EU-Künstliche-Intelligenz-Gesetzes (EU AI Act). Der CoP ist ein freiwilliges Instrument, das von unabhängigen Experten vorbereitet wurde und den Anbietern von GPAI-Modellen helfen soll, die Einhaltung ihrer Verpflichtungen gemäß dem EU AI Act nachzuweisen. Der CoP umfasst drei Kapitel: (1) Transparenz, (2) Urheberrecht und (3) Sicherheit und Schutz.

Hintergrund

Das AI-Büro ist ein Kompetenzzentrum für KI, das innerhalb der Europäischen Kommission eingerichtet wurde, um GPAI-Modelle zu regulieren. Nach der Veröffentlichung am 10. Juli wurde der CoP am 1. August von der Europäischen Kommission und dem AI-Ausschuss genehmigt. Die Regeln des EU AI Act für GPAI-Modelle wurden am 2. August für neue Modelle, die nach diesem Datum auf den Markt kommen, anwendbar. Anbieter von GPAI-Modellen, die bereits vor dem 2. August 2025 auf dem Markt waren, haben bis zum 2. August 2027 Zeit, ihre Modelle und Dokumentationen in Übereinstimmung zu bringen.

Umfang und Definitionen

Der CoP gilt ausschließlich für GPAI-Modelle, die in der EU AI Act als KI-Modelle definiert sind, die (i) eine signifikante Allgemeingültigkeit aufweisen und (ii) in der Lage sind, eine breite Palette von unterschiedlichen Aufgaben kompetent auszuführen. Modelle mit systemischen Risiken fallen unter spezielle Anforderungen im Kapitel Sicherheit und Schutz.

Struktur und Hauptanforderungen

Der folgende Abschnitt fasst die wichtigsten Anforderungen der drei Kapitel des CoP zusammen.

Transparenz

Anbieter von GPAI-Modellen müssen ein detailliertes Dokumentationsformular ausfüllen, um ihren Transparenzpflichten gegenüber dem AI-Büro und den nationalen Aufsichtsbehörden nachzukommen. Dieses Formular beinhaltet Informationen über die technischen Eigenschaften, das Training, den Energieverbrauch und die vorgesehene Nutzung eines GPAI-Modells. Die Dokumentation wird für jede Modellversion erstellt und muss mindestens zehn Jahre lang verfügbar sein.

Urheberrecht

Das Kapitel Urheberrecht betont die Bedeutung der Einhaltung von geistigen Eigentumsrechten durch KI-Modelle. Anbieter sind verpflichtet, eine Urheberrechtspolitik zu entwickeln und aufrechtzuerhalten. Sie müssen sicherstellen, dass beim Training von GPAI-Modellen nur rechtmäßig zugängliche Inhalte verwendet werden und sich an technische Maßnahmen halten, die von Rechteinhabern festgelegt werden.

Sicherheit und Schutz

Das Kapitel Sicherheit und Schutz enthält umfassende Regeln für Anbieter von GPAI-Modellen mit systemischen Risiken. Anbieter müssen ein umfangreiches Sicherheitsrahmenwerk erstellen und aufrechterhalten, um systemische Risiken zu identifizieren, zu analysieren und zu mindern. Dazu gehört die Erstellung eines Sicherheitsberichts, der detaillierte Informationen über das GPAI-Modell und die durchgeführte Risikoanalyse enthält.

Auswirkungen und Durchsetzung

Das AI-Büro hat die Befugnis, die Einhaltung der Anforderungen des EU AI Act durch Anbieter von GPAI-Modellen durchzusetzen. Bei Nichteinhaltung können Geldstrafen von bis zu 3% des globalen Jahresumsatzes oder 15 Millionen Euro verhängt werden. Die Einhaltung des CoP kann jedoch als Werkzeug zur Minderung von Sanktionen dienen.

Insgesamt bietet der CoP einen strukturierten Rahmen, um Transparenz, Urheberrecht und Sicherheit für Anbieter von GPAI-Modellen zu gewährleisten. Die spezifischen Anforderungen können jedoch erhebliche administrative Anstrengungen mit sich bringen, um die gesetzlich geforderten Standards zu erfüllen.

More Insights

Verantwortliche KI für .NET-Entwickler: Ein praktischer Leitfaden

In der heutigen Ära der Künstlichen Intelligenz (KI) stehen wir vor der Herausforderung, AI-Systeme zu vertrauen. Der Artikel erläutert die sechs Grundsätze von Responsible AI, die von Microsoft...

KI im Risikomanagement und der Compliance im Bankenwesen

In der heutigen komplexen Bankenlandschaft ist KI nicht mehr nur ein Nice-to-Have, sondern wird zur neuen Risikomanagement-Engine, die zentral dafür ist, wie Finanzinstitute Bedrohungen identifizieren...

Kalifornien führt wegweisendes Gesetz zur AI-Transparenz ein

Die kalifornischen Gesetzgeber haben mit dem Gesetz zur Transparenz in der künstlichen Intelligenz einen wichtigen Schritt zur Gewährleistung von Verantwortung und Sicherheit in der Entwicklung von...

Herausforderungen bei der Nutzung von KI-Anwendungen im Recruiting

Die Verwendung von KI-Tools im Bewerbungsprozess ermöglicht es Unternehmen, ihre Abläufe zu optimieren und effizienter zu gestalten. Arbeitgeber müssen jedoch sicherstellen, dass die verwendeten...

Die vier Säulen verantwortungsvoller KI-Systeme

Da generative KI die Art und Weise, wie Unternehmen arbeiten, transformiert, ist es entscheidend, sicherzustellen, dass KI-Systeme mit angemessenen Sicherheitsvorkehrungen implementiert werden. Die...

Verantwortungsvolle KI: Inklusive Gestaltung für Schwellenmärkte

Dieser Artikel beschreibt, wie künstliche Intelligenz in aufstrebenden Märkten verantwortungsvoll gestaltet werden kann, um Inklusion durch Design zu fördern. Es werden drei wesentliche Säulen der...