Der EU AI Act: Eine neue Ära der Regulierung von Künstlicher Intelligenz in Europa
Der EU AI Act stellt einen bedeutenden Schritt in der Regulierung von Künstlicher Intelligenz (KI) in Europa dar. Mit dem Ziel, ein einheitliches rechtliches Rahmenwerk für alle EU-Mitgliedstaaten zu schaffen, ist er das weltweit erste umfassende regulatorische Framework für KI.
Wie die EU KI definiert
Um Richtlinien für KI zu erstellen, ist es wichtig, genau zu definieren, was unter Künstlicher Intelligenz zu verstehen ist. Diese Definition wurde mehrfach überarbeitet. Im Februar 2025 veröffentlichte die EU die folgende neue Formulierung in Artikel 3(1) des AI Act:
„Ein KI-System ist ein maschinelles System, das darauf ausgelegt ist, mit unterschiedlichen Autonomiestufen zu operieren und das nach der Bereitstellung Anpassungsfähigkeit aufweisen kann. Es leitet aus den erhaltenen Eingaben ab, wie Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generiert werden, die physische oder virtuelle Umgebungen beeinflussen können.“
Eine kurze Geschichte des EU AI Act
Der EU AI Act wurde erstmals im Jahr 2021 vorgeschlagen und im August 2024 genehmigt. Hier sind einige wichtige Daten:
- April 2021: Die Europäische Kommission veröffentlicht einen Vorschlag zur Regulierung von KI in der EU.
- Dezember 2023: Ein vorläufiges Abkommen über den AI Act wird erreicht.
- August 2024: Der AI Act wird im Amtsblatt der Europäischen Union veröffentlicht und tritt in Kraft.
- Februar 2025: Verbote für KI-Systeme und Anforderungen an die KI-Kompetenz beginnen zu gelten.
- August 2026: Der Rest des AI Act wird in Kraft treten.
Der risikobasierte Ansatz des AI Act
Alle Vorschriften müssen ein Gleichgewicht zwischen dem Schutz der Menschen und der Förderung von Innovationen finden. Der EU AI Act führt deshalb einen risikobasierten Ansatz ein. Je höher das Risiko, desto strenger die Regeln. Während die meisten KI-Anwendungen als geringes Risiko eingestuft werden, wird es auf der anderen Seite Programme verbieten, die grundlegende Rechte und demokratische Werte verletzen.
Die KI-Systeme werden in vier Risikokategorien eingeteilt:
- Niedriges und minimales Risiko: Diese Systeme stellen minimale Risiken für grundlegende Rechte oder die Sicherheit dar. Beispiele sind:
- Spam-Filter
- Produkt-Empfehlungssysteme
- Chatbots
- Hohes Risiko: Diese Systeme erfordern strenge Compliance-Maßnahmen, z.B.:
- Kritische Infrastrukturen, die Lebensgefahr darstellen können
- Produkte, die für die öffentliche Sicherheit von Bedeutung sind
- Gesetzesvollzug
- Unakzeptables Risiko: Systeme, die als Bedrohung für grundlegende Rechte und Sicherheit angesehen werden, werden innerhalb der EU verboten. Beispiele sind:
- Systeme zur Vergabe von Sozialkrediten basierend auf Verhalten
- Echtzeit-Fernbiometrische Identifikation
Vorbereitung auf den AI Act
Der AI Act ist klar: Unakzeptable KI-Anwendungen sind bereits verboten, und hochriskante KI-Anwendungen müssen bis August 2026 konform sein. Unternehmen müssen sofort handeln, um den gesetzlichen Anforderungen gerecht zu werden. Experten empfehlen folgende Schritte:
- Bedarfsanalyse erstellen: Wie wird KI derzeit im Unternehmen eingesetzt? Wie qualifiziert sind die Mitarbeiter?
- Trainingsplan aufstellen: Der AI Act verlangt „KI-Kompetenz“, um KI-Systeme sicher zu nutzen.
- KI-Spezialisten ernennen: Dies ist nicht zwingend erforderlich, kann aber ratsam sein.
- Mit KI-Standards vertraut machen: Unternehmen sollten über technische Standards Bescheid wissen, die für spezifische Branchen gelten.
Der EU AI Act könnte die bedeutendste und detaillierteste KI-Regulierung der Welt darstellen. Er reflektiert Europas Bestreben, eine wichtige neue Industrie zu fördern und gleichzeitig die öffentliche Sicherheit zu schützen. Diese Herausforderung erfordert sorgfältige Aufmerksamkeit von allen Beteiligten.