Die EU-KI-Verordnung: Verantwortung für Regierungen und Unternehmen

Der EU AI Act: Eine Herausforderung für Regierungen

Der EU AI Act zielt nicht nur auf große Technologieunternehmen ab, sondern bindet auch Regierungen in Europa. Öffentliche Institutionen sind nun nicht nur Regulatoren, sondern auch Risikoeigentümer von KI-Systemen.

Die Rolle des Staates

Im Jahr 2020 wurde das niederländische SyRI-System, ein Algorithmus zur Erkennung von Sozialbetrug, wegen eines Verstoßes gegen die Menschenrechte gerichtlich aufgehoben. Unter dem EU AI Act sehen sich öffentliche Stellen nun strengen Verpflichtungen gegenüber. Regierungen sind nicht nur für die Einhaltung der Vorschriften verantwortlich, sondern auch als Anbieter und Bereitsteller von KI-Systemen tätig.

Behörden, Ministerien und öffentliche Institutionen müssen die gleichen Verpflichtungen einhalten wie private Unternehmen, wenn sie KI-Systeme einsetzen. Die Ausnahme bilden nur die Bereiche nationale Sicherheit und militärische Nutzung.

Öffentliche Institutionen als Risikoträger

Die Verwendung von KI in Bereichen wie der Grenzkontrolle, der Sozialbetrugsbekämpfung und der krisenprognose fällt häufig in die Kategorie der hohen Risiken. Dies bedeutet, dass sie strenge Anforderungen an Transparenz, Risikomanagement, Dokumentation und menschliche Aufsicht erfüllen müssen.

Verpflichtungen für öffentliche Institutionen

Wenn eine öffentliche Einrichtung ein KI-System entwickelt, einführt oder kauft, muss sie ihre Verantwortung unter dem Gesetz verstehen. Diese Verpflichtungen hängen von der Risikokategorie ab.

Hohe Risiken

Zu den Hochrisikosystemen zählen Anwendungen in der Grenzkontrolle, Bildung, Sozialbetrugsbekämpfung und Bewerbungsscreening.

  • Risikoklassifizierung: Bestimmen, ob das System als hochriskant einzustufen ist. Bei Bereitstellung durch die öffentliche Stelle muss das System im EU AI-Datenbank registriert und eine Konformitätsbewertung durchgeführt werden.
  • Transparenz und Bürgerinformation: Informieren der Bürger über automatisierte Entscheidungen, insbesondere wenn diese ihre Rechte betreffen.
  • Governance und Dokumentation: Implementierung eines Risikomanagementsystems, Gewährleistung qualitativ hochwertiger und unvoreingenommener Trainingsdaten sowie menschlicher Aufsicht.
  • Beschaffungsverantwortlichkeiten: Bei externen Beschaffungen muss sichergestellt werden, dass der Anbieter den Anforderungen des AI Act entspricht.

Begrenzte Risiken

Diese Systeme treffen keine schwerwiegenden Entscheidungen, interagieren jedoch mit Bürgern, wie z.B. die meisten Chatbots.

  • Transparenzpflichten: Bürger müssen informiert werden, dass sie mit KI interagieren.

Herausforderungen für den öffentlichen Sektor

Trotz klarer Regeln wird die Umsetzung des AI Act für öffentliche Institutionen eine Herausforderung darstellen. Zu den Herausforderungen gehören:

  • Legacy-Systeme: Viele Behörden nutzen veraltete IT-Systeme, die die Integration und Überwachung von KI erschweren.
  • Dezentralisierung: In föderalen Systemen sind die Verantwortlichkeiten auf mehrere Ebenen verteilt.
  • Begrenzte Ressourcen: Die Einhaltung der Vorschriften erfordert Fachwissen, Dokumentation, Tests und Überwachungen, die vielen Kommunen fehlen.

Ausblick

Trotz seiner Ambitionen hinterlässt der AI Act einige kritische Fragen. Wie wird die Einhaltung bei öffentlichen Institutionen durchgesetzt? Werden kleine und mittlere öffentliche Stellen überfordert?

Fazit: Der Staat muss seine eigenen Prinzipien umsetzen

Öffentliche Institutionen haben die Chance, durch verantwortungsvolle KI-Nutzung ein Beispiel zu setzen. Wenn sie scheitern, riskieren sie nicht nur die Einhaltung der Vorschriften, sondern auch das Vertrauen der Öffentlichkeit.

More Insights

Verantwortliche KI für .NET-Entwickler: Ein praktischer Leitfaden

In der heutigen Ära der Künstlichen Intelligenz (KI) stehen wir vor der Herausforderung, AI-Systeme zu vertrauen. Der Artikel erläutert die sechs Grundsätze von Responsible AI, die von Microsoft...

KI im Risikomanagement und der Compliance im Bankenwesen

In der heutigen komplexen Bankenlandschaft ist KI nicht mehr nur ein Nice-to-Have, sondern wird zur neuen Risikomanagement-Engine, die zentral dafür ist, wie Finanzinstitute Bedrohungen identifizieren...

Kalifornien führt wegweisendes Gesetz zur AI-Transparenz ein

Die kalifornischen Gesetzgeber haben mit dem Gesetz zur Transparenz in der künstlichen Intelligenz einen wichtigen Schritt zur Gewährleistung von Verantwortung und Sicherheit in der Entwicklung von...

Herausforderungen bei der Nutzung von KI-Anwendungen im Recruiting

Die Verwendung von KI-Tools im Bewerbungsprozess ermöglicht es Unternehmen, ihre Abläufe zu optimieren und effizienter zu gestalten. Arbeitgeber müssen jedoch sicherstellen, dass die verwendeten...

Die vier Säulen verantwortungsvoller KI-Systeme

Da generative KI die Art und Weise, wie Unternehmen arbeiten, transformiert, ist es entscheidend, sicherzustellen, dass KI-Systeme mit angemessenen Sicherheitsvorkehrungen implementiert werden. Die...

Verantwortungsvolle KI: Inklusive Gestaltung für Schwellenmärkte

Dieser Artikel beschreibt, wie künstliche Intelligenz in aufstrebenden Märkten verantwortungsvoll gestaltet werden kann, um Inklusion durch Design zu fördern. Es werden drei wesentliche Säulen der...