Der EU AI Act: Eine Herausforderung für Regierungen
Der EU AI Act zielt nicht nur auf große Technologieunternehmen ab, sondern bindet auch Regierungen in Europa. Öffentliche Institutionen sind nun nicht nur Regulatoren, sondern auch Risikoeigentümer von KI-Systemen.
Die Rolle des Staates
Im Jahr 2020 wurde das niederländische SyRI-System, ein Algorithmus zur Erkennung von Sozialbetrug, wegen eines Verstoßes gegen die Menschenrechte gerichtlich aufgehoben. Unter dem EU AI Act sehen sich öffentliche Stellen nun strengen Verpflichtungen gegenüber. Regierungen sind nicht nur für die Einhaltung der Vorschriften verantwortlich, sondern auch als Anbieter und Bereitsteller von KI-Systemen tätig.
Behörden, Ministerien und öffentliche Institutionen müssen die gleichen Verpflichtungen einhalten wie private Unternehmen, wenn sie KI-Systeme einsetzen. Die Ausnahme bilden nur die Bereiche nationale Sicherheit und militärische Nutzung.
Öffentliche Institutionen als Risikoträger
Die Verwendung von KI in Bereichen wie der Grenzkontrolle, der Sozialbetrugsbekämpfung und der krisenprognose fällt häufig in die Kategorie der hohen Risiken. Dies bedeutet, dass sie strenge Anforderungen an Transparenz, Risikomanagement, Dokumentation und menschliche Aufsicht erfüllen müssen.
Verpflichtungen für öffentliche Institutionen
Wenn eine öffentliche Einrichtung ein KI-System entwickelt, einführt oder kauft, muss sie ihre Verantwortung unter dem Gesetz verstehen. Diese Verpflichtungen hängen von der Risikokategorie ab.
Hohe Risiken
Zu den Hochrisikosystemen zählen Anwendungen in der Grenzkontrolle, Bildung, Sozialbetrugsbekämpfung und Bewerbungsscreening.
- Risikoklassifizierung: Bestimmen, ob das System als hochriskant einzustufen ist. Bei Bereitstellung durch die öffentliche Stelle muss das System im EU AI-Datenbank registriert und eine Konformitätsbewertung durchgeführt werden.
- Transparenz und Bürgerinformation: Informieren der Bürger über automatisierte Entscheidungen, insbesondere wenn diese ihre Rechte betreffen.
- Governance und Dokumentation: Implementierung eines Risikomanagementsystems, Gewährleistung qualitativ hochwertiger und unvoreingenommener Trainingsdaten sowie menschlicher Aufsicht.
- Beschaffungsverantwortlichkeiten: Bei externen Beschaffungen muss sichergestellt werden, dass der Anbieter den Anforderungen des AI Act entspricht.
Begrenzte Risiken
Diese Systeme treffen keine schwerwiegenden Entscheidungen, interagieren jedoch mit Bürgern, wie z.B. die meisten Chatbots.
- Transparenzpflichten: Bürger müssen informiert werden, dass sie mit KI interagieren.
Herausforderungen für den öffentlichen Sektor
Trotz klarer Regeln wird die Umsetzung des AI Act für öffentliche Institutionen eine Herausforderung darstellen. Zu den Herausforderungen gehören:
- Legacy-Systeme: Viele Behörden nutzen veraltete IT-Systeme, die die Integration und Überwachung von KI erschweren.
- Dezentralisierung: In föderalen Systemen sind die Verantwortlichkeiten auf mehrere Ebenen verteilt.
- Begrenzte Ressourcen: Die Einhaltung der Vorschriften erfordert Fachwissen, Dokumentation, Tests und Überwachungen, die vielen Kommunen fehlen.
Ausblick
Trotz seiner Ambitionen hinterlässt der AI Act einige kritische Fragen. Wie wird die Einhaltung bei öffentlichen Institutionen durchgesetzt? Werden kleine und mittlere öffentliche Stellen überfordert?
Fazit: Der Staat muss seine eigenen Prinzipien umsetzen
Öffentliche Institutionen haben die Chance, durch verantwortungsvolle KI-Nutzung ein Beispiel zu setzen. Wenn sie scheitern, riskieren sie nicht nur die Einhaltung der Vorschriften, sondern auch das Vertrauen der Öffentlichkeit.