Was uns KI-Agenten über die Governance von NHI lehren können
Künstliche Intelligenz (KI) ist ein breites Feld mit vielen praktischen Anwendungen. In den letzten Jahren haben wir ein explosives Wachstum im Bereich der generativen KI erlebt, angetrieben durch Systeme, die Entwicklern helfen, Code zu schreiben und Nutzern, Inhalte zu erstellen. Zuletzt haben wir auch den Aufstieg der "Agentic AI" gesehen, bei der Orchestratoren Aktionen über ein oder mehrere KI-Agenten koordinieren, um Aufgaben im Auftrag eines Nutzers auszuführen.
Obwohl dies futuristisch klingt, ist die Realität auch im Jahr 2026 etwas einfacher. KI-Systeme, egal wie sie eingesetzt werden, sind letztlich Prozesse, die auf Maschinen laufen. Sie können auf einem Laptop, in einem Container, innerhalb einer virtuellen Maschine oder tief in einer Cloud-Umgebung leben. Grundsätzlich sind sie Software, die Anweisungen ausführt, und zwar probabilistische, statt hartcodierte deterministische Programme. Und wie jedes andere Subsystem, das wir je gebaut haben, benötigen sie eine sichere Kommunikationsmethode.
Das Problem der Governance
Während wir hastig versuchen, agentische KI zu übernehmen, wiederholen wir einen vertrauten Fehler. Wir konzentrieren uns auf Fähigkeiten und Geschwindigkeit und lassen die Sicherheit und Governance der Nicht-Menschen-Identität (NHI) als nachträglichen Gedanken. Dies geschieht, indem wir KI-Tools mit sensiblen Systemen verbinden, ohne konsequent das Prinzip der niedrigsten Berechtigung anzuwenden. Diese Lücke gibt es seit Jahren bei CI-Systemen, Hintergrundjobs, Dienstkonten und Automatisierung.
Agentic AI eröffnet diese Lücke nicht, sondern weitet sie schnell aus.
Vertrauen entscheidet alles
Sicherheit in jedem System, ob es sich um einen Chatbot, einen CI-Arbeiter oder einen langlaufenden Daemon handelt, reduziert sich letztendlich auf Vertrauen. Wer stellt die Anfrage? Was darf er tun? Und unter welchen spezifischen Bedingungen? Moderne Architekturen konzentrieren sich auf "Zero Trust", aber viele dieser Systeme verlassen sich immer noch auf einen einzelnen anfälligen Faktor für den Zugriff: langlebige Geheimnisse, oft in Form von API-Schlüsseln oder nie ablaufenden Zertifikaten.
Das Risiko ergibt sich aus der Speicherung statischer Tokens in Umgebungsvariablen, Dot-Dateien, Build-Protokollen oder gemeinsamen Vault-Pfaden, die für viele Prozesse, einschließlich KI-Tools, zugänglich sind. Wenn diese Zugangsschlüssel durchsickern, kann jeder, der sie findet oder stiehlt, alles erlangen, auf das das Geheimnis Zugriff gewährt, bis jemand es bemerkt.
Was Zero Trust tatsächlich erfordert, ist eine Trennung der Belange. Authentifizierung sollte beweisen, dass eine Entität das ist, was sie vorgibt zu sein. Autorisierung sollte genau definieren, was diese Entität tun darf. Ohne diese Trennung gewähren wir breite, dauerhafte Berechtigungen, die schwer nachzuvollziehen, schwer zu widerrufen und äußerst attraktiv für Angreifer sind.
NHI-Governance
Dies ist das Herz der Governance von Nicht-Menschen-Identitäten (NHI). NHIs sind breit definiert als alles, was nicht menschlich ist, aber dennoch authentifiziert und sich mit anderen laufenden Systemen verbindet. Dazu gehören Bots, Skripte, Workloads, Dienstkonten und CI-Jobs. Und jetzt umfasst diese Liste auch Agenten und agentische Systeme.
Der Kontrollbereich bleibt derselbe: Identität, Eigentum, Lebenszyklus und Berechtigungen. Agentic AI ändert diese Realität nicht. Unter der Haube sind diese Systeme alles fortgeschrittene Mathematik, die irgendwo auf einem Chip laufen.
Agenten in CI-Pipelines, Terminals und Browsern
Wenn man einen Agenten wie einen Akteur behandelt, wird es einfacher, bewährte Identitätsmuster anzuwenden. Standards wie OAuth und OpenID Connect existieren, weil wir über Jahrzehnte gelernt haben, dass stehende Privilegien nicht sicher skalieren. Kurzlebige, überprüfbare Berechtigungen schlagen permanente Schlüssel immer aus einer Sicherheitsperspektive.
Diese Analogie zu "Agenten wie menschliche Akteure" bricht jedoch an einigen entscheidenden Stellen zusammen. Zum Beispiel können Agenten aufgrund ihrer Natur keine Fingerabdrücke hinterlassen oder ihre Telefone nutzen; traditionelle Mehrfaktor-Authentifizierung kann nicht einfach auf einen Hintergrundprozess angewendet werden. Doch die Kernidee bleibt: Jede Entität, die auf ein System zugreift, sollte nachweisbar, zuordenbar und eingeschränkt sein.
Continuous Integration-Pipelines sind nicht mehr nur Build-Skripte. Sie sind der komplexe Tanz, bei dem Code Realität wird, Abhängigkeiten einbezogen werden, Aufgabenläufer rely on und hoffentlich Test- und Überprüfungsprozesse bestehen.
Fazit
Agentic AI ist ein Katalysator. Sie zeigt uns in grellem Licht die Identitätsfehler, die wir seit Jahren toleriert haben. Jede Entität, die in unserem Namen handeln kann, muss mit der gleichen Ernsthaftigkeit wie menschlicher Zugang behandelt werden, unabhängig davon, ob sie für eine Millisekunde oder über eine lange Verbindung läuft. Transformation erfolgt nicht über Nacht. Inventarisierung, Bereinigung und Migration benötigen Zeit und müssen über Teams und Technologien hinweg skaliert werden.
Diejenigen, die Erfolg haben, werden die sein, die dies frühzeitig so behandeln und die Governance aufbauen, die Geschwindigkeit überlebensfähig macht.