Einführung in das EU AI Gesetz
Die Europäische Union hat mit dem Gesetz über Künstliche Intelligenz (AI Act) eine neue Ära der AI-Regulierung eingeläutet. Dieses Gesetz, das am 1. August 2024 in Kraft trat, stellt den ersten umfassenden rechtlichen Rahmen für künstliche Intelligenz weltweit dar. Es hat bereits begonnen, die Art und Weise, wie AI entwickelt, eingesetzt und geregelt wird, nicht nur innerhalb Europas, sondern auch global zu verändern.
Phasen der Implementierung
Um den Übergang in dieses neue regulatorische Regime zu erleichtern, wird das EU AI Gesetz in Phasen eingeführt. Jede Phase bringt neue Verpflichtungen mit sich, die den Organisationen Zeit geben, ihre Abläufe, Governance und technische Infrastruktur anzupassen.
- Februar 2, 2025: Dieses Datum markiert die erste große Compliance-Frist. Ab diesem Datum werden die Verbote des Gesetzes über bestimmte hochriskante und inakzeptable AI-Praktiken durchsetzbar.
- August 2, 2025: Die nächste Welle von Verpflichtungen tritt in Kraft, die sich auf Governance und Allgemeine Künstliche Intelligenz (GPAI) Modelle konzentriert.
- August 2, 2026: Der umfassendere Rahmen tritt vollständig in Kraft, einschließlich der Verpflichtungen für die meisten hochriskanten AI-Systeme.
- August 2, 2027: Dies ist die endgültige Compliance-Frist, wenn die Verpflichtungen für hochriskante Systeme vollständig durchsetzbar sind.
Was ist das EU AI Gesetz?
Risikobasierte Klassifikationen
Das EU AI Gesetz (Verordnung (EU) 2024/1689) führt einen risikobasierten Ansatz zur Regulierung von AI ein. Ziel ist es, sicherzustellen, dass AI-Systeme, die in den EU-Markt gebracht werden, sicher sind und grundlegende Rechte respektieren. Die Klassifizierung der AI-Systeme erfolgt nach dem damit verbundenen Risiko:
- Unakzeptables Risiko: AI-Praktiken, die eine klare Bedrohung für Sicherheit, Lebensunterhalt oder Rechte darstellen, sind gemäß Artikel 5 verboten.
- Hohes Risiko: Hochrisikante AI-Systeme sind für kritische Funktionen verantwortlich, wie z.B. die Identifizierung von Biometriken aus der Ferne.
- Begrenztes Risiko: AI-Chatbots fallen in der Regel in diese Kategorie und müssen bestimmte Transparenzpflichten erfüllen.
- Minimales oder kein Risiko: Die Mehrheit der derzeit in der EU verwendeten AI-Systeme gehört in diese Kategorie.
Allgemeine Künstliche Intelligenz Modelle und Systeme
Das Gesetz unterscheidet zwischen GPAI-Modellen und GPAI-Systemen. Ein GPAI-Modell ist das zugrunde liegende Fundament oder das Basismodell, das in ein AI-System integriert werden kann. GPAI-Systeme beziehen sich auf AI-Systeme, die mit GPAI-Modellen erstellt wurden.
Der nächste Meilenstein: GPAI-Verpflichtungen treten am 2. August 2025 in Kraft
Kapitel V des Gesetzes legt die Klassifizierungs- und Compliance-Anforderungen für GPAI-Modelle fest. Artikel 3 definiert ein GPAI-Modell als ein AI-Modell, das signifikante Allgemeinheit aufweist und in der Lage ist, eine Vielzahl von unterschiedlichen Aufgaben kompetent zu erfüllen.
Codes of Practice
Artikel 56 umreißt die Codes of Practice, die voraussichtlich am 2. August 2025 in Kraft treten werden. Diese Richtlinien sollen sicherstellen, dass die Verpflichtungen der GPAI-Modellanbieter zwischen dem Inkrafttreten der Verpflichtungen im August 2025 und der Annahme harmonisierter europäischer Standards im August 2027 eingehalten werden.
Extraterritoriale Reichweite
Eine der wesentlichen Eigenschaften des EU AI Gesetzes ist seine extraterritoriale Reichweite. Das Gesetz gilt nicht nur für Unternehmen innerhalb der Europäischen Union, sondern auch für Nicht-EU-Organisationen, deren AI-Systeme oder -Ergebnisse innerhalb der EU verwendet werden.
Strategische Überlegungen
Die Nichteinhaltung der Verpflichtungen unter dem Gesetz kann zu administrativen Geldstrafen von bis zu 35 Millionen Euro oder 7% des globalen Jahresumsatzes des vorangegangenen Geschäftsjahres führen, je nachdem, welcher Betrag höher ist. Unternehmen sollten daher proaktive Maßnahmen ergreifen, um die Einhaltung des Gesetzes sicherzustellen.
Das EU AI Gesetz könnte potenziell als globaler regulatorischer Rahmen dienen und Unternehmen anregen, ihre AI-Compliance-Strategien entsprechend anzupassen, um Wettbewerbsvorteile zu erlangen.