Neue Governance-Schicht für KI-Agenten zur Schließung von Zugriffsblindstellen

Entro zielt auf KI-Zugangsblindstellen mit neuem Governance-Layer für Agenten

Die Einführung von Unternehmens-KI erfolgt in kleinen, schnellen Schritten. Ein Entwickler verbindet ein Tool mit einem LLM. Ein Team installiert eine KI-App. Ein Agent erhält Zugriff auf interne Systeme. All dies fühlt sich nicht wie eine große Einführung an, aber im Laufe der Zeit entsteht ein Netzwerk von Verbindungen, das schwer nachzuvollziehen ist.

Das Sichtbarkeitsproblem hinter der KI-Einführung

Sicherheitsteams sind daran gewöhnt, den Zugriff für Menschen und Anwendungen zu verwalten. Doch KI-Agenten verhalten sich nicht wie die beiden. Sie werden schnell erstellt, laufen kontinuierlich und verlassen sich auf nicht-menschliche Identitäten wie API-Schlüssel, Tokens und Dienstkonten. Das führt zu einem Sichtbarkeitsproblem. Teams können oft einfache Fragen zu den vorhandenen Elementen in ihrer Umgebung und deren Zugriffsrechten nicht beantworten.

Die bestehenden Governance-Tools sind für Menschen und Apps konzipiert worden und wurden nicht entwickelt, um autonome Agenten zu verwalten, die über nicht-menschliche Identitäten agieren. KI-Agenten können schnell eine Verbindung herstellen, kontinuierlich arbeiten und durch OAuth-Tokens, API-Schlüssel und Geheimnisse Zugriff erlangen. Was dadurch verloren geht, ist die Fähigkeit, zu beantworten: Was ist dieser Agent, auf was kann er zugreifen, welche Identitäten ermöglichen dies, wer besitzt ihn und ist dieser Zugriff weiterhin angemessen? Das Governance-Modell schließt diese Lücke, indem es Governance-Prinzipien auf den KI-Zugriff anwendet.

Warum KI das Zugangsmodell verändert

In traditionellen Umgebungen ist der Zugriff an ein Login oder eine definierte Anwendung gebunden. Bei KI-Agenten ist der Zugriff jedoch fluid. Er hängt davon ab, wie der Agent sich mit Systemen verbindet, welche Berechtigungen er erbt und wie er mit verschiedenen Tools interagiert. Das bedeutet, dass das Risiko nicht mehr an ein einzelnes Konto gebunden ist, sondern sich über Integrationen, Automatisierungsflüsse und Datenzugriffswege ausbreitet. Diese Verschiebung macht es schwieriger zu erkennen, wo tatsächlich eine Exposition besteht.

Über die grundlegende „Shadow AI“-Erkennung hinaus

Viele Anbieter sprechen jetzt über „Shadow AI“, aber die meisten Tools konzentrieren sich immer noch darauf, unbekannte Anwendungen oder Nutzungen zu erkennen. Die Governance-Lösung versucht, einen Schritt weiter zu gehen, indem sie verschiedene Signale zu einer Ansicht verbindet. Dazu gehören Aktivitäten an Endpunkten, Cloud-Verhalten und die Identitäten, die den Zugriff ermöglichen.

Die Unterscheidung ist wichtig. Ein KI-Tool zu finden, ist das eine. Zu verstehen, was es tun kann und es zu kontrollieren, ist etwas anderes.

Von der Entdeckung zur Kontrolle

Die Governance-Lösung konzentriert sich auf beide Seiten des Problems. Sie identifiziert, wo KI-Agenten existieren und kartiert, wie sie mit Systemen interagieren. Dann fügt sie Sichtbarkeit hinzu, was diese Agenten tun und ob diese Aktivitäten mit den Richtlinien übereinstimmen. Dies bringt die Governance näher an die tatsächliche Nutzung des Zugriffs, nicht nur an die Zuweisung.

Für Sicherheitsteams bedeutet das weniger Rätselraten und mehr Kontext bei der Überprüfung von Risiken.

Was das für MSSPs bedeutet

Die Herausforderung wird noch komplexer für MSSPs, die mehrere Umgebungen verwalten. KI-Agenten sind nicht auf eine Organisation beschränkt. Sie breiten sich über Kundenkonten aus, von denen jedes unterschiedliche Tools und Integrationen hat. Das wirft die Frage nach der Skalierbarkeit auf.

Die Governance-Lösung ist Teil der Plattform und nicht ein separates Produkt, sodass MSSP-Kunden und Partner sie in den verbundenen Umgebungen und Konten nutzen können, die sie bereits über die Plattform verwalten. Dies wurde entwickelt, um dasselbe Sichtbarkeits-, Governance- und Kontrollmodell auf KI-Agenten auszuweiten.

KI-Agenten beginnen, sich wie Benutzer zu verhalten. Sie greifen auf Systeme zu, bewegen Daten und lösen Aktionen ohne direkte menschliche Beteiligung aus. Aber die meisten Governance-Modelle behandeln sie immer noch als Hintergrundprozesse. Diese Lücke ist der Ort, an dem sich Risiken aufbauen. Die Governance-Lösung spiegelt einen breiteren Wandel in der Art und Weise wider, wie Identitäten verwaltet werden müssen. Es geht nicht mehr nur um Menschen und Apps. Es umfasst jetzt Agenten, Integrationen und maschinengetriebene Zugriffswege. Mit der fortschreitenden Einführung von KI wird die Fähigkeit, diese Zugriffswege zu sehen und zu steuern, wahrscheinlich eine Grundvoraussetzung und kein erweitertes Feature mehr sein.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...