Singapur führt ersten globalen Governance-Rahmen für Agentic AI ein
Am 22. Januar 2026 stellte Singapur das Model AI Governance Framework für Agentic AI (MGF) auf dem Weltwirtschaftsforum 2026 vor und bekräftigte damit sein Engagement, mit den schnellen Fortschritten in der künstlichen Intelligenz (KI) Schritt zu halten. Der Rahmen stellt das weltweit erste spezielle Governance-Modell für agentische KI-Systeme dar, die in der Lage sind, selbständig zu denken, zu planen und Aufgaben im Namen von Menschen auszuführen.
Obwohl das MGF keine verbindlichen rechtlichen Verpflichtungen auferlegt, deutet es stark auf die regulatorische Richtung Singapurs hin und etabliert praktische Best Practices für die Branchenanwendung. Der Rahmen baut auf den bereits bestehenden KI-Governance-Initiativen Singapurs auf, einschließlich des Model AI Governance Framework von 2019, des AI Verify-Testrahmens und des Global AI Assurance Pilot, das 2025 gestartet wurde. Was diesen neuen Rahmen von vorherigen Initiativen unterscheidet, ist der Fokus auf die einzigartigen Risiken, die zunehmend autonome KI-Tools mit sich bringen, wie z. B. unbefugte Aktionen, Datenmissbrauch, voreingenommene Entscheidungen und systemische Störungen.
Was ist Agentic AI?
Agentic AI bezieht sich auf Systeme, die planen, denken und über mehrere Schritte hinweg agieren können, um Ziele mit minimalem menschlichem Eingriff zu erreichen. Im Gegensatz zu generativer KI, die Ausgaben als Reaktion auf Aufforderungen erzeugt, kann agentic AI Aktionen initiieren, sich an neue Informationen anpassen und mit anderen Agenten oder Systemen interagieren, um Aufgaben autonom abzuschließen.
Im Kern vieler agentischer Systeme stehen Sprachmodelle, die als das zentrale Gehirn des Agenten fungieren. Diese Modelle interpretieren natürliche Sprachbefehle, entwickeln Strategien zur Zielverwirklichung und aktivieren dann verbundene Werkzeuge wie Rechner, Kalender und Anwendungsoberflächen. Diese Werkzeuge ermöglichen es dem Agenten, Aufgaben wie das Aktualisieren von Aufzeichnungen, das Verarbeiten von Zahlungen oder das Steuern von Geräten durchzuführen.
Agentic-Systeme können deterministisch sein, d. h. sie produzieren konsistente Ausgaben für identische Eingaben, oder nicht-deterministisch, wobei die Ergebnisse auch bei derselben Eingabe variieren können. Letzteres bringt Unvorhersehbarkeit mit sich, die eine stärkere Überwachung und Governance erfordert. In der Praxis umfasst agentic AI oft mehrere Agenten, die parallel arbeiten, wobei jeder auf eine Aufgabe spezialisiert ist, was die Effizienz erhöht, aber auch die Risiken vergrößert, wenn Fehler im System weitergegeben werden.
Risiken beim Einsatz von Agentic AI
Obwohl Risiken wie Halluzinationen und Vorurteile bereits mit KI in Verbindung gebracht werden, können sie im Kontext von agentic AI größeren Schaden anrichten, da Fehler über mehrere Ausgaben und Prozesse repliziert werden können.
Die autonome Natur von agentic AI bringt mehrere einzigartige Risikokategorien mit sich, die Organisationen angehen müssen. Das MGF identifiziert fünf Kategorien:
- Fehlerhafte Aktionen: Agenten können falsche Aufgaben ausführen, wie z. B. Termine am falschen Datum planen, fehlerhaften Code generieren oder Inventar falsch verwalten, was schädliche oder kostspielige Folgen haben kann.
- Unbefugte Aktionen: Agenten könnten außerhalb ihres erlaubten Rahmens agieren, beispielsweise Transaktionen ausführen oder Änderungen vornehmen, ohne die erforderliche menschliche Genehmigung.
- Voreingenommene oder ungerechte Aktionen: Entscheidungen von Agenten können zu diskriminierenden oder ungerechten Ergebnissen führen, wie z. B. voreingenommene Einstellungspraktiken oder ungerechte Anbieter-Auswahl.
- Datenverletzungen: Sensible Informationen, einschließlich persönlicher Daten oder Geschäftsgeheimnisse, können exponiert oder missbraucht werden, wenn Agenten Vertraulichkeit nicht erkennen oder von Angreifern ausgenutzt werden.
- Störungen verbundener Systeme: Fehlfunktionen oder Kompromisse können verbundene Systeme destabilisieren, wie z. B. das Löschen kritischer Codebasen oder das Überlasten externer Plattformen mit übermäßigen Anfragen.
Wie das MGF Risiken adressiert
Dimension 1: Risiken frühzeitig bewerten und eingrenzen
Da agentic AI-Systeme anpassungsfähig sind und direkt auf ihre Umgebung agieren können, müssen Organisationen bewerten, ob ein vorgeschlagener Anwendungsfall vor der Bereitstellung angemessen ist. Die Risikobewertung sollte sowohl die Auswirkungen (Schwere, falls etwas schiefgeht) als auch die Wahrscheinlichkeit (Wahrscheinlichkeit eines Fehlers) berücksichtigen.
Dimension 2: Menschliche Verantwortung
Der Rahmen macht deutlich, dass die Verantwortung letztlich bei den Organisationen und den Personen liegt, die agentic AI überwachen. Die Verantwortung sollte über Teams verteilt werden.
Dimension 3: Technische Kontrollen über den gesamten Lebenszyklus
Technische Sicherheitsmaßnahmen müssen in jeder Phase eingebettet sein, einschließlich Entwicklung, Bereitstellung und darüber hinaus.
Dimension 4: Verantwortung der Endbenutzer
Organisationen müssen die Endbenutzer ermächtigen, verantwortungsvoll mit agentic AI zu interagieren. Transparenz ist entscheidend, was bedeutet, dass Benutzer informiert werden sollten, wenn sie mit einem Agenten interagieren.
Fazit
Das MGF legt klare Parameter für den verantwortungsvollen Einsatz von agentic AI fest und bietet Organisationen praktische Anleitungen, um Vertrauen in den Einsatz fortschrittlicher KI-Technologien aufzubauen. Während der Rahmen nicht rechtlich bindend ist, signalisiert er die regulatorische Richtung und etabliert Best Practices, die Unternehmen heute übernehmen können.