EU-Regulierungen für Multi-Agenten-KI sind unzureichend

EU-Vorschriften sind nicht bereit für Multi-Agenten-KI-Vorfälle

Im August dieses Jahres treten die Richtlinien der Europäischen Kommission für Artikel 73 des EU-KI-Gesetzes in Kraft. Diese Richtlinien verlangen von Anbietern und Betreibern, schwerwiegende Vorfälle im Zusammenhang mit KI-Systemen in risikobehafteten Umgebungen, wie kritischer Infrastruktur, zu melden.

Dies ist eine rechtzeitige Veröffentlichung. Warnungen über die potenziellen Gefahren von KI wurden bereits ausgesprochen, und die Zunahme von Vorfällen ist besorgniserregend.

Fit für den Zweck?

Die derzeitigen Entwürfe enthalten eine besorgniserregende Lücke. Sie konzentrieren sich auf Einzelagenten und nehmen eine vereinfachte Einzelfallursache für KI-bezogene Vorfälle an. Dabei treten die schwerwiegendsten Risiken bereits aus der Interaktion zwischen KI-Systemen auf, wo mehrere Vorfälle zu kaskadierenden, kumulativen Effekten führen können.

Vorurteile der Richtlinien

Die gegenwärtige Formulierung der Richtlinien geht davon aus, dass nur ein einziges System für einen risikobehafteten Vorfall verantwortlich ist. KI-Systeme werden jedoch zunehmend agentisch: Sie sind in der Lage zu komplexem Denken und proaktivem Handeln, ohne dass eine kontinuierliche menschliche Intervention erforderlich ist.

Ein Beispiel für algorithmische Kollision zeigt, wie Preisanpassungen auf dem deutschen Kraftstoffmarkt ohne explizite Koordination zu steigenden Preisen führten. Solche Vorfälle verdeutlichen die Verantwortungslücke in den aktuellen Vorschriften.

Mehrfache Vorfälle und ihre Folgen

Vorfälle, die aus mehreren schnellen Interaktionen zwischen Systemen resultieren, können katastrophale Folgen haben. Ein Beispiel ist der „Flash Crash“ von 2010, bei dem automatisierte Handelssysteme innerhalb kurzer Zeit zu einem Marktpreisverfall führten.

Die Regulierung sollte auch kumulative Vorfälle berücksichtigen. So berichtete ein Unternehmen über den größten Cyberangriff, der unter Verwendung von KI-Agenten auf kritische Industrien gerichtet war. Hierbei wurden Aufgaben in harmlose Einzelaufgaben unterteilt, die ohne das volle Verständnis ihrer bösartigen Absicht ausgeführt wurden.

Bedrohung der kollektiven Interessen

Die gegenwärtigen Lücken in den Entwürfen schaffen rechtliche Unklarheiten in Bezug auf die Verantwortung. Multi-Agenten-Vorfälle können weitreichende Schäden verursachen, die über individuelle Nutzer hinausgehen. Vorfälle, die die Integrität demokratischer Institutionen gefährden, müssen ebenfalls stärker berücksichtigt werden.

Ein Beispiel ist die Verbreitung von pro-Kremlin-Narrativen durch ein Netzwerk, das mehrere KI-Modelle beeinflusste. Solche Vorfälle zeigen, wie Multi-Agenten-Interaktionen kollektive Interessen untergraben können, ohne dass ein klarer „Schaden“ auftritt.

Fehlende Drittanbieterberichterstattung

Aufgrund der diffusen Natur dieser Vorfälle ist die Bedeutung von vertraulichen Berichtsmechanismen unverzichtbar. Die Entwürfe bieten jedoch keine strukturierten Wege für die Berichterstattung durch Dritte.

Schlussfolgerung

Die Entwürfe des Artikels 73 zeigen eine alarmierende Unvorbereitetheit in der Regulierung agentischer KI-Systeme. Die Europäische Kommission sollte den Rahmen erweitern, um die Realität von Multi-Agenten-Interaktionen zu erfassen und deren Risiken zu adressieren.

Die Berichterstattung sollte nicht nur auf isolierte Systemfehler beschränkt sein, sondern auch die Zusammenbrüche berücksichtigen, die aus der Interaktion von KI-Systemen resultieren. Diese Multi-Agenten-Interaktionen können systemische Schäden verursachen, die nicht immer sofortige physische Schäden zur Folge haben, sondern sich über digitale Netzwerke und ganze Gemeinschaften ausbreiten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...