Rubrik präsentiert SAGE: Echtzeit-Governance für KI-Agenten

Rubrik präsentiert SAGE zur Echtzeit-Governance von KI-Agenten

Rubrik hat SAGE, die Semantic AI Governance Engine, vorgestellt. SAGE wird als die erste speziell entwickelte KI-Governance-Engine positioniert, die autonome Agenten in Echtzeit sichert und kontrolliert. SAGE treibt die Rubrik Agent Cloud an und ersetzt manuelle, regelbasierte Aufsicht durch intentionale Governance.

Kernproblematik von SAGE

Das Hauptproblem, das SAGE angeht, ist ein Governance-Flaschenhals, der die Einführung von KI in Unternehmen verlangsamt. Traditionelle Systeme stützen sich auf deterministische Regeln, die natürliche Sprache nicht verarbeiten oder sich nicht anpassen können, wenn Agenten unerwartete Aktionen ausführen. Rubriks Lösung ist ein maßgeschneidertes Small Language Model (SLM), das die semantische Bedeutung von Richtlinien interpretiert, anstatt nur nach Schlüsselwörtern zu suchen. Es fungiert als Echtzeit-Befehlszentrale für agentische Operationen.

Aussagen zur KI-Sicherheit

„SAGE markiert einen entscheidenden Moment in der KI-Sicherheit, da wir den Fokus von der Frage, ob Agenten eingesetzt werden können, hin zur Frage verschieben, wie sie in großem Maßstab gesteuert werden können“, sagte ein Unternehmensvertreter. „Mit SAGE können wir über einfaches Monitoring hinausgehen und eine Zukunft schaffen, in der KI uns hilft, KI-Agenten zu steuern. Jetzt bieten wir den Führungskräften die nötigen Rahmenbedingungen, um ihre KI-Agenten ohne Kompromisse bei der Sicherheit und Integrität des Unternehmens schnell arbeiten zu lassen.“

Schlüsselmerkmale von SAGE

Zu den wichtigsten Funktionen von SAGE gehört die semantische Richtlinieninterpretation, die natürliche Sprachinstruktionen wie „Gib keine Finanzberatung“ in Maschinenlogik übersetzt, die kontextuelle statische Filter übersehen würden. Das proprietäre SLM ermöglicht auch die adaptive Richtlinienverbesserung, die proaktiv vage Richtlinien kennzeichnet und Verbesserungsvorschläge macht, bevor ein Verstoß auftritt. Wenn ein Agent einen Fehler macht, tritt die integrierte Remediation in Kraft, die Rubrik Agent Rewind aktiviert, um schädliche Aktionen rückgängig zu machen und die Datenintegrität wiederherzustellen.

Benchmark-Daten

Rubrik hat auch Benchmark-Daten veröffentlicht, die ihr maßgeschneidertes SLM mit OpenAI’s GPT-5.2 vergleichen. In einem standardisierten Satz von Tests zur Interaktion zwischen Benutzern und Agenten verarbeitete Rubriks SLM Nachrichten fünfmal schneller, erkannte Richtlinienverstöße mit höherer Genauigkeit und reduzierte signifikant die Rechenlast, die typischerweise mit der Echtzeitüberwachung von KI verbunden ist.

Schlussfolgerung

Diese Ankündigung erfolgt, während Unternehmen versuchen, die Bereitstellung von KI-Agenten zu skalieren, während Führungskräfte stärkere Kontrollen fordern. SAGE ist so konzipiert, dass Organisationen diese Einführung beschleunigen können, ohne Sicherheit gegen Geschwindigkeit einzutauschen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...