Governance für Multi-Agenten-KI: Ein Weckruf

Ein Weckruf zur Governance von Multi-Agenten-AI-Interaktionen

In diesem Monat hat die italienische Reederei Grimaldi Group ihr neues 9.000-Einheiten-Schiff, die Grande Tianjin, auf ihrer Jungfernfahrt vorgestellt, auf der sie Elektrofahrzeuge von China nach Europa transportiert. Auf dem Weg wird es durch verschiedene Jurisdiktionen reisen, zwischen konkurrierenden Nationen navigieren und seinen Kurs basierend auf den verfolgten Routen anderer Schiffe anpassen. Die reibungslose Durchführung einer solchen Reise hängt von einem gut funktionierenden Netzwerk aus Rechtsrahmen, Infrastruktur und Überwachung ab.

Nun ersetzen wir ein maritimes Fahrzeug durch ein AI-Agenten-System. Diese Systeme sind in der Lage, Entscheidungen in einer viel komplexeren Umgebung als auf dem Meer zu treffen. Sie können mit anderen AI-Systemen interagieren, um ihre Ziele zu erreichen und dabei unprecedented risks zu erzeugen. Während dieses komplexe Szenario bereits im Gange ist, gibt es extrem begrenzte Governance-Rahmenbedingungen, um sicherzustellen, dass diese AI-Interaktionen sicher bleiben.

Risiken von Multi-Agenten-AI-Systemen

Unternehmen entwickeln AI-Agenten, die in der Lage sind, in komplexen Umgebungen zu agieren und Ziele mit minimalen Anweisungen oder Überwachung zu verfolgen. Obwohl die Agentenfähigkeiten von GPT-5 mit Skepsis betrachtet werden, gibt es einen starken Marktanreiz, diese Systeme weiterzuentwickeln. In Großbritannien hat OpenAI eine Partnerschaft mit der Regierung angekündigt, während Palantir mit dem NHS kooperiert. In Europa surft Anthropic mit dem speziell entwickelten ArchiBot in den Archiven des Europäischen Parlaments.

Da sowohl der private als auch der öffentliche Sektor die Einführung beschleunigen und ausweiten, um ihren kommerziellen Wert zu ernten, müssen AI-Agenten miteinander kommunizieren und interagieren, um ihre Aufgaben zu erfüllen, was zu Multi-Agenten-AI-Systemen führt. Es gibt bereits besorgniserregende Szenarien, die die potenziellen Fehlfunktionen aufzeigen, die aus diesen Interaktionen resultieren können:

  • AI-Systeme, die den deutschen Einzelhandelsmarkt für Benzin steuern, haben gezeigt, dass sie zu Kollusionen auf Kosten der Kunden neigen.
  • AI-Systeme, die an simulierten Ressourcenteilungsszenarien beteiligt sind, haben die Ressourcendepletion beschleunigt.
  • AI-gesteuerte fahrerlose Fahrzeuge, die gültige Strategien zur Sicherheit der Passagiere verfolgen, können scheitern, wenn ihre Strategien inkompatibel sind.

Obwohl AI-Agenten autonom operieren können, ist ihr Verständnis des Kontextes und der Konsequenzen ihrer Handlungen begrenzt. Weiterhin werden die grundlegenden Modelle, auf denen AI-Agenten basieren, nicht mit Blick auf die Risiken von Multi-Agenten entwickelt und haben nicht die erforderliche kooperative Intelligenz, um sicher zu interagieren.

Infrastruktur und Standards für sichere AI-Zusammenarbeit

Allgemeine AI-Verhaltenskodex der EU einen vielversprechenden Anfang dar. Zum ersten Mal hat ein Governance-Rahmen die inhärenten Risiken, die aus Multi-Agenten-Interaktionen resultieren, anerkannt. Er klärt die Compliance-Verpflichtungen für Anbieter von AI-Systemen, die in der EU tätig sind, um diese Risiken über den gesamten Lebenszyklus der AI zu mindern.

Obwohl der EU-Kodex willkommen ist und Sicherheitsverpflichtungen an den verbindlichen AI-Gesetzentwurf bindet, ist er nur ein Teil eines größeren Puzzles. Auch die JCT21 CEN CENELEC wird an Standards arbeiten, um den Kodex bis 2027 zu ersetzen. Zudem beginnen AI-Sicherheitsinstitute damit, Methoden zur Evaluierung der agentischen Fähigkeiten und Multi-Agenten-AI-Interaktionen zu entwickeln.

Lehren aus der maritimen Governance

Obwohl sie einfacher ist als die komplexe Natur von Multi-Agenten-AI-Systemen, kann der maritime Sektor einige inspirierende Richtlinien bieten, wie man die richtige Governance und Infrastruktur für AI-Agenten aufbauen kann:

  • Unsichtbares sichtbar machen: In der maritimen Industrie ermöglichen automatisierte Identifikationssysteme (AIS) die Verfolgung des Standorts, der Geschwindigkeit, des Eigentums, der Ziele und der vergangenen Routen eines Schiffes. AI-Agenten, von denen die meisten derzeit virtuell unsichtbar sind, sollten entdeckbar und transparent werden.
  • Was kann uns die maritime Industrie über Governance lehren? Maritime Gesetze, verankert in Rahmenwerken wie dem UN-Seerechtsübereinkommen, setzen Verpflichtungen für bilaterale, regionale und internationale Zusammenarbeit fest. Im Kontext von AI könnte der AI-Vertrag des Europarats ein guter Ausgangspunkt sein, um rechtliche Vereinbarungen zu etablieren.
  • Sollten wir eine dezentrale, kooperative Infrastruktur aufbauen? Ähnlich wie maritime Systeme auf Kommunikation, Koordination und Konfliktlösungsmechanismen angewiesen sind, benötigen AI-Agenten ähnliche Rahmenbedingungen.

Die beschleunigte Einführung von AI unter Marktpressionen produziert ein Netzwerk von Interaktionen und Ergebnissen von beispielloser Komplexität. Um diese zu adressieren, ist es notwendig, die technischen Aspekte der grundlegenden AI-Modelle zu evaluieren. Ohne zeitnahe Investitionen in Governance werden diese Risiken und Ergebnisse sowohl unvorhersehbar als auch schwer zu überwachen sein.

Wir würden es nicht zulassen, dass Schiffe navigieren oder Flugzeuge abheben, ohne Sichtbarkeit, Koordination oder Konfliktvermeidungsprotokolle. Und doch stehen wir kurz davor, dies mit fortschrittlichen (und derzeit fehleranfälligen) AI-Systemen zu tun.

Angesichts der fehlenden Regulierung im Vereinigten Königreich und der unklaren Situation in den USA kann Europa den Weg für eine verantwortungsvolle Einführung von Multi-Agenten-AI ebnen, indem es Governance- und Infrastrukturmaßnahmen einrichtet, denen die Welt folgen kann.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...