Erweiterung von ArgusAI zur Steuerung von KI-Risiken im Unternehmen

Bedrock Data erweitert ArgusAI zur Steuerung des Unternehmens-AI-Risikooberfläche

Bedrock Data, der Anbieter von datenzentrierter Sicherheit, Governance und Management, hat eine bedeutende Erweiterung von Bedrock Data ArgusAI angekündigt. Ursprünglich eingeführt, um AI-Systeme mit ihren Daten zu verknüpfen und die Sicherheitsvorkehrungen zu validieren, regelt ArgusAI nun das, was als die Unternehmens-AI-Risikooberfläche definiert wird. Diese umfasst die vollständige Expositionskette, die sich aus drei Kernkomponenten ergibt: den AI-Agenten, die Unternehmen einsetzen, den Model Context Protocol (MCP)-Servern und -verbindern, die den Zugriff auf Unternehmenssysteme und -daten vermitteln, sowie den sensiblen Daten, die diese Systeme abrufen, indizieren und darauf zugreifen können.

Erweiterung und neue Funktionen

Im Rahmen dieser Erweiterung führt Bedrock Data auch einen eigenen MCP-Server ein, der den AI-Workflows in Unternehmen direkten Zugang zum Datenrisikokontext aus dem Bedrock Metadata Lake ermöglicht.

AI führt zu nicht-deterministischen Datenzugriffs mustern, die von traditionellen Sicherheitswerkzeugen nicht gesteuert werden konnten. Organisationen benötigen eine klarere Sicht darauf, wie AI-Systeme mit Unternehmensdaten interagieren, um neue Risiken zu managen.

Gartner prognostiziert, dass bis 2028 25 % der Unternehmensverletzungen auf den Missbrauch von AI-Agenten zurückzuführen sein werden, doch die meisten Sicherheitsteams haben immer noch keine systematische Möglichkeit, zu sehen, auf was ihre Agenten zugreifen können. Laut dem Bedrock Data’s Enterprise Data Security Confidence Index 2025 haben 60 % der Sicherheitsteams AI-Governance-Verantwortlichkeiten übernommen, während 53 % immer noch keine Echtzeit-Sichtbarkeit ihrer sensiblen Datenbestände haben.

Die Lösung: ArgusAI

ArgusAI bietet Teams eine vollständige Karte des AI-Fußabdrucks, sodass sie die AI-Risikooberfläche von Anfang bis Ende steuern und Innovationen skalieren können, ohne die Exposition zu erhöhen. Traditionelle Sicherheits- und DSPM-Tools wurden entwickelt, bevor AI-Agenten in großem Umfang auf Unternehmensdaten zugreifen konnten. Sie können sensible Daten entdecken, aber sie wurden nicht entwickelt, um die Beziehungen zwischen Agenten, Zugriffspfaden und Berechtigungen in einer einheitlichen Sicht auf die AI-Risikooberfläche zu kartieren.

Auf der Grundlage des Bedrock Metadata Lake kartiert ArgusAI Agenten, Infrastruktur, Berechtigungen und Unternehmensdaten in einer einheitlichen Expositionskarte, sodass Organisationen das Risiko verstehen und eindämmen können, das durch Unternehmens-AI-Systeme entsteht. Im Kern dieser Fähigkeit steht das Data Bill of Materials (DBOM), ein kontinuierlich aktualisiertes Inventar jedes Datenbestands, der mit einem AI-System verbunden ist, einschließlich seiner Kategorisierung, Sensibilitätsklassifikation, Berechtigungsstruktur, regulatorischen Kontext und Herkunft.

Kontinuierliche Überwachung und Risikomanagement

Die Infrastruktur für den Datenzugriff bestimmt, wie AI-Agenten mit Unternehmenssystemen verbinden, und Berechtigungen regeln ihren Zugriff auf Daten. MCP entwickelt sich schnell zu einem verbindenden Rückgrat zwischen AI-Agenten und Unternehmensdaten. Mit dem Wachstum der MCP-Annahme steigt auch das Potenzial für unbeabsichtigte Expositionen durch falsch konfigurierte Rollen und übermäßige Zugriffswege.

Die ArgusAI MCP Server Discovery regelt diesen Zugang durch drei Kernfunktionen:

  • Automatisierte Entdeckung der MCP-Infrastruktur und Expositionskartierung.
  • Erkennung sensibler Datenexposition mit vordefinierten Richtlinien.
  • Kontinuierliche Überwachung von Infrastruktur und Berechtigungsänderungen.

AI-Risiko wird nicht durch einen einzelnen Endpunkt oder Dienst definiert, sondern durch die Kette der Konnektivität zwischen Agenten, Infrastruktur, Rollen und Daten. ArgusAI fasst diese Schichten in einem einheitlichen Expositionsmodell zusammen, sodass Sicherheitsteams nicht nur sehen können, was bereitgestellt wird, sondern auch, auf was es tatsächlich zugreifen kann.

Schlussfolgerung

In einer Zeit, in der Unternehmen AI zunehmend in interne Arbeitsabläufe integrieren, ist es entscheidend, dass Sicherheitsleiter die Sichtbarkeit und Governance der Datenrisiken gewährleisten. Die ArgusAI-Plattform bietet dies, indem sie Governance-Intelligenz direkt in automatische Prozesse einbettet, sodass Organisationen informierte Entscheidungen über die Verwendung sensibler Daten treffen können. Die Bedrock Data-Plattform bleibt an der Spitze der Innovation im Bereich Datenschutz und Sicherheit.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...