Die EU-KI-Verordnung: Verantwortung für Regierungen und Unternehmen

Der EU AI Act: Eine Herausforderung für Regierungen

Der EU AI Act zielt nicht nur auf große Technologieunternehmen ab, sondern bindet auch Regierungen in Europa. Öffentliche Institutionen sind nun nicht nur Regulatoren, sondern auch Risikoeigentümer von KI-Systemen.

Die Rolle des Staates

Im Jahr 2020 wurde das niederländische SyRI-System, ein Algorithmus zur Erkennung von Sozialbetrug, wegen eines Verstoßes gegen die Menschenrechte gerichtlich aufgehoben. Unter dem EU AI Act sehen sich öffentliche Stellen nun strengen Verpflichtungen gegenüber. Regierungen sind nicht nur für die Einhaltung der Vorschriften verantwortlich, sondern auch als Anbieter und Bereitsteller von KI-Systemen tätig.

Behörden, Ministerien und öffentliche Institutionen müssen die gleichen Verpflichtungen einhalten wie private Unternehmen, wenn sie KI-Systeme einsetzen. Die Ausnahme bilden nur die Bereiche nationale Sicherheit und militärische Nutzung.

Öffentliche Institutionen als Risikoträger

Die Verwendung von KI in Bereichen wie der Grenzkontrolle, der Sozialbetrugsbekämpfung und der krisenprognose fällt häufig in die Kategorie der hohen Risiken. Dies bedeutet, dass sie strenge Anforderungen an Transparenz, Risikomanagement, Dokumentation und menschliche Aufsicht erfüllen müssen.

Verpflichtungen für öffentliche Institutionen

Wenn eine öffentliche Einrichtung ein KI-System entwickelt, einführt oder kauft, muss sie ihre Verantwortung unter dem Gesetz verstehen. Diese Verpflichtungen hängen von der Risikokategorie ab.

Hohe Risiken

Zu den Hochrisikosystemen zählen Anwendungen in der Grenzkontrolle, Bildung, Sozialbetrugsbekämpfung und Bewerbungsscreening.

  • Risikoklassifizierung: Bestimmen, ob das System als hochriskant einzustufen ist. Bei Bereitstellung durch die öffentliche Stelle muss das System im EU AI-Datenbank registriert und eine Konformitätsbewertung durchgeführt werden.
  • Transparenz und Bürgerinformation: Informieren der Bürger über automatisierte Entscheidungen, insbesondere wenn diese ihre Rechte betreffen.
  • Governance und Dokumentation: Implementierung eines Risikomanagementsystems, Gewährleistung qualitativ hochwertiger und unvoreingenommener Trainingsdaten sowie menschlicher Aufsicht.
  • Beschaffungsverantwortlichkeiten: Bei externen Beschaffungen muss sichergestellt werden, dass der Anbieter den Anforderungen des AI Act entspricht.

Begrenzte Risiken

Diese Systeme treffen keine schwerwiegenden Entscheidungen, interagieren jedoch mit Bürgern, wie z.B. die meisten Chatbots.

  • Transparenzpflichten: Bürger müssen informiert werden, dass sie mit KI interagieren.

Herausforderungen für den öffentlichen Sektor

Trotz klarer Regeln wird die Umsetzung des AI Act für öffentliche Institutionen eine Herausforderung darstellen. Zu den Herausforderungen gehören:

  • Legacy-Systeme: Viele Behörden nutzen veraltete IT-Systeme, die die Integration und Überwachung von KI erschweren.
  • Dezentralisierung: In föderalen Systemen sind die Verantwortlichkeiten auf mehrere Ebenen verteilt.
  • Begrenzte Ressourcen: Die Einhaltung der Vorschriften erfordert Fachwissen, Dokumentation, Tests und Überwachungen, die vielen Kommunen fehlen.

Ausblick

Trotz seiner Ambitionen hinterlässt der AI Act einige kritische Fragen. Wie wird die Einhaltung bei öffentlichen Institutionen durchgesetzt? Werden kleine und mittlere öffentliche Stellen überfordert?

Fazit: Der Staat muss seine eigenen Prinzipien umsetzen

Öffentliche Institutionen haben die Chance, durch verantwortungsvolle KI-Nutzung ein Beispiel zu setzen. Wenn sie scheitern, riskieren sie nicht nur die Einhaltung der Vorschriften, sondern auch das Vertrauen der Öffentlichkeit.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...