EU KI-Gesetz: Neue Anforderungen und Herausforderungen

Einführung in das EU AI Gesetz

Die Europäische Union hat mit dem Gesetz über Künstliche Intelligenz (AI Act) eine neue Ära der AI-Regulierung eingeläutet. Dieses Gesetz, das am 1. August 2024 in Kraft trat, stellt den ersten umfassenden rechtlichen Rahmen für künstliche Intelligenz weltweit dar. Es hat bereits begonnen, die Art und Weise, wie AI entwickelt, eingesetzt und geregelt wird, nicht nur innerhalb Europas, sondern auch global zu verändern.

Phasen der Implementierung

Um den Übergang in dieses neue regulatorische Regime zu erleichtern, wird das EU AI Gesetz in Phasen eingeführt. Jede Phase bringt neue Verpflichtungen mit sich, die den Organisationen Zeit geben, ihre Abläufe, Governance und technische Infrastruktur anzupassen.

  • Februar 2, 2025: Dieses Datum markiert die erste große Compliance-Frist. Ab diesem Datum werden die Verbote des Gesetzes über bestimmte hochriskante und inakzeptable AI-Praktiken durchsetzbar.
  • August 2, 2025: Die nächste Welle von Verpflichtungen tritt in Kraft, die sich auf Governance und Allgemeine Künstliche Intelligenz (GPAI) Modelle konzentriert.
  • August 2, 2026: Der umfassendere Rahmen tritt vollständig in Kraft, einschließlich der Verpflichtungen für die meisten hochriskanten AI-Systeme.
  • August 2, 2027: Dies ist die endgültige Compliance-Frist, wenn die Verpflichtungen für hochriskante Systeme vollständig durchsetzbar sind.

Was ist das EU AI Gesetz?

Risikobasierte Klassifikationen

Das EU AI Gesetz (Verordnung (EU) 2024/1689) führt einen risikobasierten Ansatz zur Regulierung von AI ein. Ziel ist es, sicherzustellen, dass AI-Systeme, die in den EU-Markt gebracht werden, sicher sind und grundlegende Rechte respektieren. Die Klassifizierung der AI-Systeme erfolgt nach dem damit verbundenen Risiko:

  • Unakzeptables Risiko: AI-Praktiken, die eine klare Bedrohung für Sicherheit, Lebensunterhalt oder Rechte darstellen, sind gemäß Artikel 5 verboten.
  • Hohes Risiko: Hochrisikante AI-Systeme sind für kritische Funktionen verantwortlich, wie z.B. die Identifizierung von Biometriken aus der Ferne.
  • Begrenztes Risiko: AI-Chatbots fallen in der Regel in diese Kategorie und müssen bestimmte Transparenzpflichten erfüllen.
  • Minimales oder kein Risiko: Die Mehrheit der derzeit in der EU verwendeten AI-Systeme gehört in diese Kategorie.

Allgemeine Künstliche Intelligenz Modelle und Systeme

Das Gesetz unterscheidet zwischen GPAI-Modellen und GPAI-Systemen. Ein GPAI-Modell ist das zugrunde liegende Fundament oder das Basismodell, das in ein AI-System integriert werden kann. GPAI-Systeme beziehen sich auf AI-Systeme, die mit GPAI-Modellen erstellt wurden.

Der nächste Meilenstein: GPAI-Verpflichtungen treten am 2. August 2025 in Kraft

Kapitel V des Gesetzes legt die Klassifizierungs- und Compliance-Anforderungen für GPAI-Modelle fest. Artikel 3 definiert ein GPAI-Modell als ein AI-Modell, das signifikante Allgemeinheit aufweist und in der Lage ist, eine Vielzahl von unterschiedlichen Aufgaben kompetent zu erfüllen.

Codes of Practice

Artikel 56 umreißt die Codes of Practice, die voraussichtlich am 2. August 2025 in Kraft treten werden. Diese Richtlinien sollen sicherstellen, dass die Verpflichtungen der GPAI-Modellanbieter zwischen dem Inkrafttreten der Verpflichtungen im August 2025 und der Annahme harmonisierter europäischer Standards im August 2027 eingehalten werden.

Extraterritoriale Reichweite

Eine der wesentlichen Eigenschaften des EU AI Gesetzes ist seine extraterritoriale Reichweite. Das Gesetz gilt nicht nur für Unternehmen innerhalb der Europäischen Union, sondern auch für Nicht-EU-Organisationen, deren AI-Systeme oder -Ergebnisse innerhalb der EU verwendet werden.

Strategische Überlegungen

Die Nichteinhaltung der Verpflichtungen unter dem Gesetz kann zu administrativen Geldstrafen von bis zu 35 Millionen Euro oder 7% des globalen Jahresumsatzes des vorangegangenen Geschäftsjahres führen, je nachdem, welcher Betrag höher ist. Unternehmen sollten daher proaktive Maßnahmen ergreifen, um die Einhaltung des Gesetzes sicherzustellen.

Das EU AI Gesetz könnte potenziell als globaler regulatorischer Rahmen dienen und Unternehmen anregen, ihre AI-Compliance-Strategien entsprechend anzupassen, um Wettbewerbsvorteile zu erlangen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...