Erstes globales Governance-Modell für Agentic AI in Singapur

Singapur führt ersten globalen Governance-Rahmen für Agentic AI ein

Am 22. Januar 2026 stellte Singapur das Model AI Governance Framework für Agentic AI (MGF) auf dem Weltwirtschaftsforum 2026 vor und bekräftigte damit sein Engagement, mit den schnellen Fortschritten in der künstlichen Intelligenz (KI) Schritt zu halten. Der Rahmen stellt das weltweit erste spezielle Governance-Modell für agentische KI-Systeme dar, die in der Lage sind, selbständig zu denken, zu planen und Aufgaben im Namen von Menschen auszuführen.

Obwohl das MGF keine verbindlichen rechtlichen Verpflichtungen auferlegt, deutet es stark auf die regulatorische Richtung Singapurs hin und etabliert praktische Best Practices für die Branchenanwendung. Der Rahmen baut auf den bereits bestehenden KI-Governance-Initiativen Singapurs auf, einschließlich des Model AI Governance Framework von 2019, des AI Verify-Testrahmens und des Global AI Assurance Pilot, das 2025 gestartet wurde. Was diesen neuen Rahmen von vorherigen Initiativen unterscheidet, ist der Fokus auf die einzigartigen Risiken, die zunehmend autonome KI-Tools mit sich bringen, wie z. B. unbefugte Aktionen, Datenmissbrauch, voreingenommene Entscheidungen und systemische Störungen.

Was ist Agentic AI?

Agentic AI bezieht sich auf Systeme, die planen, denken und über mehrere Schritte hinweg agieren können, um Ziele mit minimalem menschlichem Eingriff zu erreichen. Im Gegensatz zu generativer KI, die Ausgaben als Reaktion auf Aufforderungen erzeugt, kann agentic AI Aktionen initiieren, sich an neue Informationen anpassen und mit anderen Agenten oder Systemen interagieren, um Aufgaben autonom abzuschließen.

Im Kern vieler agentischer Systeme stehen Sprachmodelle, die als das zentrale Gehirn des Agenten fungieren. Diese Modelle interpretieren natürliche Sprachbefehle, entwickeln Strategien zur Zielverwirklichung und aktivieren dann verbundene Werkzeuge wie Rechner, Kalender und Anwendungsoberflächen. Diese Werkzeuge ermöglichen es dem Agenten, Aufgaben wie das Aktualisieren von Aufzeichnungen, das Verarbeiten von Zahlungen oder das Steuern von Geräten durchzuführen.

Agentic-Systeme können deterministisch sein, d. h. sie produzieren konsistente Ausgaben für identische Eingaben, oder nicht-deterministisch, wobei die Ergebnisse auch bei derselben Eingabe variieren können. Letzteres bringt Unvorhersehbarkeit mit sich, die eine stärkere Überwachung und Governance erfordert. In der Praxis umfasst agentic AI oft mehrere Agenten, die parallel arbeiten, wobei jeder auf eine Aufgabe spezialisiert ist, was die Effizienz erhöht, aber auch die Risiken vergrößert, wenn Fehler im System weitergegeben werden.

Risiken beim Einsatz von Agentic AI

Obwohl Risiken wie Halluzinationen und Vorurteile bereits mit KI in Verbindung gebracht werden, können sie im Kontext von agentic AI größeren Schaden anrichten, da Fehler über mehrere Ausgaben und Prozesse repliziert werden können.

Die autonome Natur von agentic AI bringt mehrere einzigartige Risikokategorien mit sich, die Organisationen angehen müssen. Das MGF identifiziert fünf Kategorien:

  • Fehlerhafte Aktionen: Agenten können falsche Aufgaben ausführen, wie z. B. Termine am falschen Datum planen, fehlerhaften Code generieren oder Inventar falsch verwalten, was schädliche oder kostspielige Folgen haben kann.
  • Unbefugte Aktionen: Agenten könnten außerhalb ihres erlaubten Rahmens agieren, beispielsweise Transaktionen ausführen oder Änderungen vornehmen, ohne die erforderliche menschliche Genehmigung.
  • Voreingenommene oder ungerechte Aktionen: Entscheidungen von Agenten können zu diskriminierenden oder ungerechten Ergebnissen führen, wie z. B. voreingenommene Einstellungspraktiken oder ungerechte Anbieter-Auswahl.
  • Datenverletzungen: Sensible Informationen, einschließlich persönlicher Daten oder Geschäftsgeheimnisse, können exponiert oder missbraucht werden, wenn Agenten Vertraulichkeit nicht erkennen oder von Angreifern ausgenutzt werden.
  • Störungen verbundener Systeme: Fehlfunktionen oder Kompromisse können verbundene Systeme destabilisieren, wie z. B. das Löschen kritischer Codebasen oder das Überlasten externer Plattformen mit übermäßigen Anfragen.

Wie das MGF Risiken adressiert

Dimension 1: Risiken frühzeitig bewerten und eingrenzen
Da agentic AI-Systeme anpassungsfähig sind und direkt auf ihre Umgebung agieren können, müssen Organisationen bewerten, ob ein vorgeschlagener Anwendungsfall vor der Bereitstellung angemessen ist. Die Risikobewertung sollte sowohl die Auswirkungen (Schwere, falls etwas schiefgeht) als auch die Wahrscheinlichkeit (Wahrscheinlichkeit eines Fehlers) berücksichtigen.

Dimension 2: Menschliche Verantwortung
Der Rahmen macht deutlich, dass die Verantwortung letztlich bei den Organisationen und den Personen liegt, die agentic AI überwachen. Die Verantwortung sollte über Teams verteilt werden.

Dimension 3: Technische Kontrollen über den gesamten Lebenszyklus
Technische Sicherheitsmaßnahmen müssen in jeder Phase eingebettet sein, einschließlich Entwicklung, Bereitstellung und darüber hinaus.

Dimension 4: Verantwortung der Endbenutzer
Organisationen müssen die Endbenutzer ermächtigen, verantwortungsvoll mit agentic AI zu interagieren. Transparenz ist entscheidend, was bedeutet, dass Benutzer informiert werden sollten, wenn sie mit einem Agenten interagieren.

Fazit

Das MGF legt klare Parameter für den verantwortungsvollen Einsatz von agentic AI fest und bietet Organisationen praktische Anleitungen, um Vertrauen in den Einsatz fortschrittlicher KI-Technologien aufzubauen. Während der Rahmen nicht rechtlich bindend ist, signalisiert er die regulatorische Richtung und etabliert Best Practices, die Unternehmen heute übernehmen können.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...