Die Kontrolle von KI-Agenten: Ein Leitfaden zur Sicherung nicht-menschlicher Identitäten

Kontrolle von KI-Agenten: Ein Leitfaden zur Sicherung von nicht-menschlichen Identitäten

In der heutigen Zeit sind KI-Agenten nicht mehr nur Werkzeuge, sondern autonome digitale Mitarbeiter, die mit kritischen Systemen, APIs und Identitäten in Unternehmensumgebungen interagieren. Da CISOs ins Jahr 2025 gehen, besteht die Herausforderung nicht mehr nur darin, Menschen zu sichern, sondern auch nicht-menschliche Identitäten (NHIs) wie KI-Assistenten, Bots, RPA-Prozesse und Maschinen-zu-Maschinen (M2M) Dienste zu steuern.

Wenn KI-Agenten sich in SaaS-Anwendungen authentifizieren, Arbeitsabläufe ausführen oder sensible Geschäftsprozesse auslösen können, vergrößert sich die Angriffsfläche. Eine kompromittierte KI-Identität könnte für Betrug, Spionage oder Lieferkettenkompromisse genutzt werden. Daher ist die Governance von KI-Agenten die nächste Grenze der Unternehmenscybersicherheit.

Zusammenfassung

Dieser Leitfaden bietet einen CISO-Rahmen zur Sicherung von KI-Agenten und nicht-menschlichen Identitäten (NHIs). Wichtige Erkenntnisse umfassen:

  • KI-Agenten sind die neue Bedrohung aus dem Inneren – sie halten API-Schlüssel, Tokens und privilegierten Zugriff.
  • Traditionelles IAM ist unzureichend – Unternehmen müssen AI Identity Governance (AI-IG) übernehmen.
  • CISOs müssen Eigentum, Lebenszyklusmanagement und Überwachung für jede nicht-menschliche Identität festlegen.
  • Defensive Kontrollen umfassen Privileged Access Management (PAM) für Bots, Zero-Trust für Maschinenkonten und kontinuierliche Verhaltensüberwachung.
  • Regulierungsbehörden werden bald strengere Anforderungen an die Governance von KI-Agenten vorschreiben, was proaktive Maßnahmen zu einer Compliance-Notwendigkeit macht.

Hintergrund: Aufstieg der KI-Agenten und nicht-menschlichen Identitäten

Bis vor kurzem waren Cybersicherheitsmodelle auf menschliche Nutzer ausgerichtet. Authentifizierung, MFA, UEBA – alles entwickelt für Menschen. Doch im Jahr 2025 gehören über 50 % der Unternehmenskonten nicht-menschlichen Entitäten – API-Schlüssel, Bots, Mikrodienste und KI-Agenten. Dieser Wandel verändert das Spiel.

KI-Agenten unterscheiden sich von traditioneller Automatisierung, da sie adaptiv und entscheidungsfähig sind. Sie können Privilegien erhöhen, API-Aufrufe verknüpfen und über Systeme hinweg interagieren. Das bedeutet, sie führen nicht nur Aufgaben aus – sie schaffen Identitätsausbreitung und neue Angriffswege.

Sicherheitsrisiken, die von KI-Agenten ausgehen

KI-Agenten erweitern die Angriffsfläche des Unternehmens auf Weise, die das traditionelle IAM nicht vorhergesehen hat. Wichtige Risiken umfassen:

1. Credential- und API-Schlüssel-Exposition

KI-Agenten benötigen oft langlebige API-Token, Zertifikate oder OAuth-Geheimnisse. Wenn sie kompromittiert werden, erhalten Angreifer dauerhaften Hintertürzugang zu Unternehmenssystemen.

2. Autonome Ausnutzung

Im Gegensatz zu Menschen können kompromittierte KI-Agenten Angriffe sofort skalieren, API-Aufrufe verknüpfen und in Minuten Terabyte an Daten exfiltrieren.

3. Identitätsausbreitung

Ohne Governance sammeln Organisationen hunderte unmonitierter KI-Identitäten in Cloud-Anbietern, SaaS-Plattformen und DevOps-Pipelines.

4. Verstärkung des Insider-Risikos

Wenn ein Angreifer einen privilegierten KI-Agenten übernimmt, agiert dieser effektiv als immer aktiver Insider-Bedrohung, die traditionelle Benutzerverhaltensanalysen umgeht.

5. Manipulation der Lieferkette

Anfällige KI-Agenten, die in das Ecosystem von Anbietern eingebettet sind, können versteckte Hintertüren einführen, die zu einer umfassenden Kompromittierung des Unternehmens führen.

Kontrollrahmen: IAM vs. AI-IG

Traditionelles Identity and Access Management (IAM) wurde für Menschen entwickelt. KI-Agenten erfordern AI Identity Governance (AI-IG) mit neuen Kontrollsäulen:

IAM (menschliche Identitäten) AI-IG (KI-Agenten & NHIs)
Benutzer-Onboarding/-Offboarding Agenten-Lebenszyklusmanagement (Erstellung, Widerruf, Ablauf)
MFA für Anmeldungssitzungen Schlüsselrotation, flüchtige Tokens, bedarfsabhängiger Zugriff
UEBA (Benutzerverhaltensanalytik) ABEA (Agentenverhalten- und Ausführungsanalytik)
Rollenbasierte Zugriffskontrolle (RBAC) Kontextbasierte dynamische KI-Zugriffsrichtlinien

Zusammenfassend sind KI-Agenten erstklassige Bürger in der Identitätsgovernance und müssen als solche behandelt werden.

Privilegierter Zugriff für Bots und Agenten

Wie menschliche Administratoren benötigen KI-Agenten oft erhöhte Privilegien. CISOs müssen PAM für Bots Strategien durchsetzen:

  • API-Schlüssel sichern: Speichern Sie Anmeldeinformationen in zentralisierten, verschlüsselten Tresoren mit automatisierter Rotation.
  • Just-in-Time (JIT) Zugriff: Gewähren Sie KI-Agenten vorübergehende, angepasste Privilegien nur bei Bedarf.
  • Sitzungsaufzeichnung: Protokollieren Sie alle von Bots durchgeführten privilegierten Aktivitäten für forensische Sichtbarkeit.
  • Zero-Trust-Durchsetzung: Validieren Sie jede Anfrage von Bot zu Dienst gemäß Richtlinie und Kontext.

Durch die Erweiterung von PAM auf nicht-menschliche Identitäten reduzieren CISOs den Schaden, der durch Kompromisse von KI-Agenten entstehen kann.

Fallstudien: Wenn KI-Agenten Amok liefen

Fall 1: Missbrauch eines Finanzbots

Ein KI-Handelsbot eines Fintech-Unternehmens wurde über exponierte API-Schlüssel auf GitHub kompromittiert. Angreifer führten unbefugte Trades im Wert von Millionen durch, bevor sie entdeckt wurden. Grundursache: Keine KI-Identitätsgovernance, keine Schlüsselrotation.

Fall 2: Lieferketten-KI-Hintertür

Ein SaaS-Anbieter lieferte ein Chatbot-Modul mit schwacher Authentifizierung. Kunden, die es in ihre CRM-Systeme integrierten, erlaubten unwissentlich Angreifern, seitlich über KI-Konten zu pivotieren.

Fall 3: Cloud-RPA-Verstoß

Die Robotic Process Automation (RPA) Skripte eines Versicherungsanbieters verwendeten statische Dienstkonten. Einmal kompromittiert, nutzten die Angreifer die Bots, um sensible Schadensdaten in großem Maßstab zu exfiltrieren.

CISO-Playbook 2025

CISOs müssen ein strukturiertes Governance-Modell übernehmen, um KI-Agenten als nicht-menschliche Identitäten (NHIs) zu verwalten. Das Playbook umfasst:

  • Inventar & Klassifizierung: Führen Sie ein vollständiges Inventar aller KI-Agenten, Bots und RPA-Skripte.
  • Eigentum & Verantwortung: Weisen Sie jedem KI-Identität einen Geschäftseigentümer zu.
  • Starke Authentifizierung & Token-Hygiene: Verwenden Sie kurzlebige Anmeldeinformationen und rotieren Sie Schlüssel automatisch.
  • Kontinuierliche Überwachung & ABEA: Übernehmen Sie Agentenverhalten- und Ausführungsanalytik (ABEA), um Anomalien zu erkennen.
  • Compliance & Regulierungsbereitschaft: Bereiten Sie sich auf bevorstehende Anforderungen an die Governance von KI-Agenten vor.

Verteidigungsstrategien zur Sicherung von KI-Agenten

Die Sicherung von KI-Agenten geht über Zugriffssteuerungen hinaus – es geht darum, Vertrauensgrenzen aufzubauen:

  • Zero-Trust-KI: Behandeln Sie jeden KI-Agenten als untrusted, bis er pro Anfrage verifiziert wird.
  • PAM für Bots: Wenden Sie das Prinzip der geringsten Privilegien an, sichern Sie Geheimnisse und protokollieren Sie Sitzungen.
  • Agenten-Sandbox: Behalten Sie KI-Agenten in eingeschränkten Laufzeitumgebungen.
  • API-Gateways: Verwenden Sie Gateways zur Validierung von Anfragen, Ratenbegrenzung und Anomalieerkennung.
  • Kill Switches: Stellen Sie sicher, dass jeder KI-Agent eine „sofort deaktivieren“ Option hat.

KI-Agenten sind mächtig – aber ohne Governance sind sie gefährlich. Es ist entscheidend, proaktive Maßnahmen zur Sicherung dieser nicht-menschlichen Identitäten zu ergreifen.

More Insights

USA bricht mit UN über globale KI-Regulierung

Die US-Beamten lehnten einen Vorschlag zur Schaffung eines globalen KI-Governance-Rahmens bei der dieswöchigen Generalversammlung der Vereinten Nationen ab, obwohl der Plan von vielen Ländern...

Agentic AI: Risiken und Governance für Unternehmen

In der schnelllebigen Welt der künstlichen Intelligenz wenden sich Unternehmen zunehmend agentischen KI-Systemen zu, die Entscheidungen treffen und Aufgaben autonom ausführen können. Diese...

Die wachsende Rolle von KI als Meinungswächter und die alarmierenden versteckten Vorurteile

Die wachsende Rolle von KI als Meinungsgatekeeper wirft Bedenken hinsichtlich versteckter Vorurteile auf. Eine neue Studie warnt davor, dass subtile Vorurteile in KI-Systemen den öffentlichen Diskurs...

Regulierungsdruck auf KI: Eine neue Ära der Verantwortung

Die aufkommende Welt der Künstlichen Intelligenz (KI) befindet sich an einem kritischen Punkt, da eine Welle von Regulierungsmaßnahmen und rechtlichen Präzedenzfällen einen globalen Wandel hin zu mehr...

Die Auswahl der richtigen KI-Governance-Tools

Mit der beschleunigten Einführung von generativer KI steigen auch die Risiken. Um diese Herausforderungen zu bewältigen, haben wir mit Tokio Marine Holdings und Tokio Marine & Nichido Systems...

UN fördert globale Standards für sichere KI

Die Vereinten Nationen setzen sich dafür ein, einen globalen Konsens über „sichere, geschützte und vertrauenswürdige“ KI zu schaffen, indem sie Richtlinien und technische Standards fördern. Ein neuer...

Die Algorithmenregierung: Wie Datenwissenschaftler die Politik gestalten

In einer fesselnden Diskussion in Singapur sprachen Thomas Roehm von SAS und Frankie Phua von der United Overseas Bank über die Herausforderungen der KI-Regulierung. Ihr Gespräch beleuchtete das...

Vorbereitung von KMUs auf die KI-Regulierungen der EU

Klein- und Mittelunternehmen (KMU) stehen vor erheblichen Herausforderungen durch die KI-Verordnung der EU, insbesondere im Hinblick auf die Einhaltung strenger Vorschriften und potenziell hohe...