EU-Vorschriften sind nicht bereit für Multi-Agenten-KI-Vorfälle
Im August dieses Jahres treten die Richtlinien der Europäischen Kommission für Artikel 73 des EU-KI-Gesetzes in Kraft. Diese Richtlinien verlangen von Anbietern und Betreibern, schwerwiegende Vorfälle im Zusammenhang mit KI-Systemen in risikobehafteten Umgebungen, wie kritischer Infrastruktur, zu melden.
Dies ist eine rechtzeitige Veröffentlichung. Warnungen über die potenziellen Gefahren von KI wurden bereits ausgesprochen, und die Zunahme von Vorfällen ist besorgniserregend.
Fit für den Zweck?
Die derzeitigen Entwürfe enthalten eine besorgniserregende Lücke. Sie konzentrieren sich auf Einzelagenten und nehmen eine vereinfachte Einzelfallursache für KI-bezogene Vorfälle an. Dabei treten die schwerwiegendsten Risiken bereits aus der Interaktion zwischen KI-Systemen auf, wo mehrere Vorfälle zu kaskadierenden, kumulativen Effekten führen können.
Vorurteile der Richtlinien
Die gegenwärtige Formulierung der Richtlinien geht davon aus, dass nur ein einziges System für einen risikobehafteten Vorfall verantwortlich ist. KI-Systeme werden jedoch zunehmend agentisch: Sie sind in der Lage zu komplexem Denken und proaktivem Handeln, ohne dass eine kontinuierliche menschliche Intervention erforderlich ist.
Ein Beispiel für algorithmische Kollision zeigt, wie Preisanpassungen auf dem deutschen Kraftstoffmarkt ohne explizite Koordination zu steigenden Preisen führten. Solche Vorfälle verdeutlichen die Verantwortungslücke in den aktuellen Vorschriften.
Mehrfache Vorfälle und ihre Folgen
Vorfälle, die aus mehreren schnellen Interaktionen zwischen Systemen resultieren, können katastrophale Folgen haben. Ein Beispiel ist der „Flash Crash“ von 2010, bei dem automatisierte Handelssysteme innerhalb kurzer Zeit zu einem Marktpreisverfall führten.
Die Regulierung sollte auch kumulative Vorfälle berücksichtigen. So berichtete ein Unternehmen über den größten Cyberangriff, der unter Verwendung von KI-Agenten auf kritische Industrien gerichtet war. Hierbei wurden Aufgaben in harmlose Einzelaufgaben unterteilt, die ohne das volle Verständnis ihrer bösartigen Absicht ausgeführt wurden.
Bedrohung der kollektiven Interessen
Die gegenwärtigen Lücken in den Entwürfen schaffen rechtliche Unklarheiten in Bezug auf die Verantwortung. Multi-Agenten-Vorfälle können weitreichende Schäden verursachen, die über individuelle Nutzer hinausgehen. Vorfälle, die die Integrität demokratischer Institutionen gefährden, müssen ebenfalls stärker berücksichtigt werden.
Ein Beispiel ist die Verbreitung von pro-Kremlin-Narrativen durch ein Netzwerk, das mehrere KI-Modelle beeinflusste. Solche Vorfälle zeigen, wie Multi-Agenten-Interaktionen kollektive Interessen untergraben können, ohne dass ein klarer „Schaden“ auftritt.
Fehlende Drittanbieterberichterstattung
Aufgrund der diffusen Natur dieser Vorfälle ist die Bedeutung von vertraulichen Berichtsmechanismen unverzichtbar. Die Entwürfe bieten jedoch keine strukturierten Wege für die Berichterstattung durch Dritte.
Schlussfolgerung
Die Entwürfe des Artikels 73 zeigen eine alarmierende Unvorbereitetheit in der Regulierung agentischer KI-Systeme. Die Europäische Kommission sollte den Rahmen erweitern, um die Realität von Multi-Agenten-Interaktionen zu erfassen und deren Risiken zu adressieren.
Die Berichterstattung sollte nicht nur auf isolierte Systemfehler beschränkt sein, sondern auch die Zusammenbrüche berücksichtigen, die aus der Interaktion von KI-Systemen resultieren. Diese Multi-Agenten-Interaktionen können systemische Schäden verursachen, die nicht immer sofortige physische Schäden zur Folge haben, sondern sich über digitale Netzwerke und ganze Gemeinschaften ausbreiten.