Wie der EU AI Act eine beispiellose globale Wirkung haben wird
Am 2. Februar 2025 begann die bahnbrechende Durchsetzungsphase des EU AI Act, die eine wesentliche Veränderung in der Governance von künstlicher Intelligenz in ganz Europa anzeigt. Der EU AI Act ist der weltweit erste umfassende rechtliche Rahmen für KI, der darauf abzielt, Innovation mit dem Schutz grundlegender Rechte in Einklang zu bringen und einen globalen Maßstab für verantwortungsvolle KI-Entwicklung und -Implementierung zu schaffen.
Was ist der EU AI Act?
Der EU AI Act ist ein Regelwerk, das sicherstellen soll, dass KI-Systeme in einer Weise entwickelt und genutzt werden, die europäische Werte wie Datenschutz, Sicherheit und Nicht-Diskriminierung widerspiegelt. Der Akt, der 2023 nach umfassenden Diskussionen unter EU-Mitgliedstaaten verabschiedet wurde, klassifiziert KI-Systeme nach Risikokategorien: unzulässig, hochriskant, eingeschränktes Risiko und minimales Risiko, und legt damit verbundene Verantwortlichkeiten für Entwickler und Nutzer fest.
Die Hauptziele des Gesetzes sind das Verbot schädlicher KI-Praktiken, die Überwachung hochriskanter Anwendungen sowie die Förderung von Transparenz und Rechenschaftspflicht. Dies soll Vertrauen in KI-Technologien schaffen und mögliche Risiken reduzieren. Die Regelung ist nicht nur für Unternehmen innerhalb der EU relevant, sondern auch für solche außerhalb des Blocks, deren KI-Technologien europäische Bürger betreffen.
Februar 2025: Eine Schlüsselphase in der Durchsetzung
Der Beginn des Februars 2025 markiert die erste wichtige Durchsetzungsphase des AI Act. In dieser Phase liegt der Schwerpunkt auf dem Verbot bestimmter hochriskanter und unethischer KI-Praktiken sowie der Implementierung von Compliance-Verpflichtungen für Unternehmen.
Verbotene Praktiken
Ein zentrales Element dieser Durchsetzungsphase ist das vollständige Verbot bestimmter KI-Praktiken, die gemäß Artikel 5 des Gesetzes als unzulässig gelten. Dazu gehören:
- Irreführende oder manipulative KI-Systeme: Jede Systemgestaltung, die subliminale Methoden oder irreführende Schnittstellen verwendet, um das Verhalten der Nutzer zu beeinflussen, ist nun verboten.
- Ausbeutung von Schwächen: KI-Systeme, die sich auf Personen konzentrieren, die aufgrund von Schwächen wie Alter, Behinderung oder sozialer Herkunft verwundbar sind, sind untersagt.
- Soziale Bewertung: Systeme, die Verhaltensbewertungen von Personen zur Beurteilung der Kreditwürdigkeit oder des Zugangs zu Dienstleistungen vergeben, sind nun verboten.
- Unbefugte biometrische Überwachung: Die Erstellung von Gesichtserkennungsdatenbanken aus öffentlich gesammelten Daten ist ohne ausdrückliche Genehmigung nicht gestattet.
- Emotionserkennungstechnologien: Der Einsatz von KI zur Emotionserkennung in sensiblen Umfeldern wie am Arbeitsplatz oder in Bildungseinrichtungen ist nur mit medizinischer Begründung zulässig.
Eingeschränkte Ausnahmen für biometrische Überwachung
Obwohl der AI Act viele hochriskante und unethische KI-Anwendungen klar verbietet, anerkennt die Regelung die Notwendigkeit eingeschränkter Ausnahmen in bestimmten sensiblen Anwendungsfällen. So ist die Echtzeit-Biometrische Überwachung, wie Gesichtserkennung in öffentlichen Bereichen, größtenteils verboten, jedoch sind spezifische Ausnahmen zulässig, die wie folgt aussehen:
- Maßnahmen zur Bekämpfung von Terrorismus
- Bekämpfung des Menschenhandels
- Suche nach vermissten Personen
Diese Anwendungen erfordern jedoch strenge Aufsicht und die Genehmigung von gerichtlichen oder regulatorischen Behörden.
Compliance-Verpflichtungen für Unternehmen
Zusammen mit dem Verbot bestimmter Praktiken bringt diese Phase neue Compliance-Verpflichtungen für Organisationen mit sich, die KI-Systeme in der EU implementieren. Unternehmen sind nun verpflichtet, Audits ihrer KI-Systeme durchzuführen, um sicherzustellen, dass sie nicht in verbotene Kategorien fallen. Außerdem müssen sie interne Verfahren zur Dokumentation der Einhaltung des Gesetzes einrichten.
Die Schulung des Personals ist ein weiterer wesentlicher Bestandteil der Compliance. Organisationen müssen sicherstellen, dass ihre Mitarbeiter in der ethischen Anwendung von KI geschult sind und verstehen, wie sie mögliche Risiken im Zusammenhang mit deren Nutzung erkennen können. Die Nichteinhaltung dieser Vorschriften kann zu erheblichen Geldbußen führen, die bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes betragen können.
Ausblick: Zukünftige Phasen der Umsetzung
Die Durchsetzungsphase, die für Februar 2025 geplant ist, ist nur der Anfang. Die EU hat einen schrittweisen Plan für die Durchsetzung des AI Act skizziert, mit weiteren Zielen, die für die kommenden Jahre festgelegt sind. Bis August 2025 müssen allgemeine KI-Systeme, wie große Sprachmodelle (LLMs), Transparenzstandards einhalten, was bedeutet, dass sie offenlegen müssen, wie diese Systeme entwickelt wurden und transparente Informationen über ihre Fähigkeiten und Grenzen bereitstellen müssen.
Ab August 2026 werden vollständige Vorschriften für hochriskante KI-Systeme eingeführt, die strenge Anforderungen für Bereiche wie Gesundheitsdiagnosen, Management kritischer Infrastrukturen und Einstellungsverfahren umfassen. Unternehmen in diesen Branchen müssen starke Risikomanagementpraktiken nachweisen und sicherstellen, dass ihre Systeme strengen Sicherheitsvorschriften entsprechen.
Ein globales Modell für verantwortungsvolle KI-Governance
Die Strategie der EU zur Überwachung von künstlicher Intelligenz hat sie als weltweiten Vorreiter in der ethischen KI-Regulierung etabliert. Indem sie die Menschenrechte und ethische Prinzipien betont, während sie Innovationen ermöglicht, setzt der AI Act einen Präzedenzfall, dem andere Regionen folgen könnten. Dies verdeutlicht auch Europas Engagement für die Schaffung eines globalen Rahmens für vertrauenswürdige KI-Entwicklung.
Für Unternehmen, die im EU-Markt tätig sind oder mit ihm interagieren, bietet diese neue regulatorische Landschaft sowohl Herausforderungen als auch Chancen. Obwohl die Einhaltung der Vorschriften erhebliche Ressourcen für Audits und Mitarbeiterschulungen erfordern kann, bietet sie auch die Möglichkeit, das Vertrauen der Verbraucher zu stärken, indem sie ein Engagement für ethische Standards demonstriert.