Kyndryl optimiert Compliance für KI-Agenten in Unternehmen

Kyndryl möchte Unternehmen helfen, KI-Agenten in Schach zu halten – und kostspielige Compliance-Fehler zu vermeiden

Kyndryl hat eine neue Funktion namens „Policy as Code“ angekündigt, die darauf abzielt, Organisationen dabei zu unterstützen, agentische KI in komplexen und regulierten Umgebungen zu skalieren.

Einführung in „Policy as Code“

Die Idee besteht darin, die organisatorischen Regeln, regulatorischen Anforderungen und betrieblichen Kontrollen eines Unternehmens in maschinenlesbare Richtlinien zu verwandeln, die regeln, wo Agenten agieren dürfen und wo nicht.

„Organisationen setzen Policy as Code typischerweise durch eine Kombination aus deklarativen Richtsprachen und Durchsetzungsmechanismen um“, erklärte ein Experte. „Mit anderen Worten, sie integrieren die entsprechenden Vorschriften und betrieblichen Regeln in einen Code, den KI-Agenten lesen und befolgen müssen. Ist es im Code, muss der KI-Agent ausführen. Und wenn eine Anweisung nicht im Code steht, kann der KI-Agent sie nicht sehen oder darauf reagieren.“

Hintergrund und Herausforderungen

Diese Maßnahme erfolgt vor dem Hintergrund wachsender Bedenken hinsichtlich der regulatorischen Compliance für Unternehmen, die agentische KI implementieren. Mehr als drei von zehn Kunden haben sich darüber beschwert, dass Compliance-Probleme ihre Fähigkeit, kürzlich getätigte Technologieinvestitionen zu skalieren, erheblich einschränken.

Die neue Funktion „Policy as Code“ zielt darauf ab, dies zu adressieren, indem sie betriebliche Grenzen definiert und die Handlungen der Agenten so gestaltet, dass sie erklärbar, überprüfbar und im Einklang mit den von den Kunden definierten geschäftlichen und regulatorischen Anforderungen stehen.

Funktionen und Vorteile

Diese neue Funktion wird direkt in das Kyndryl Agentic AI Framework integriert, das im letzten Sommer als Portfolio spezialisierter, selbstgesteuerter, selbstlernender KI-Agenten gestartet wurde. „Die Policy as Code-Funktion von Kyndryl überwindet die Einschränkungen herkömmlicher KI-Agentenkontrollen und bietet die Struktur, die Kunden benötigen, während sie agentische KI-Lösungen übernehmen“, sagte ein leitender Vizepräsident.

Zu den Funktionen gehören deterministische Ausführungen, wobei Agenten nur Aktionen ausführen, die im Voraus genehmigt und durchgesetzt wurden. Sicherheitsvorrichtungen blockieren unvorhersehbare oder unbefugte Aktionen im Arbeitsablauf und eliminieren die betrieblichen Auswirkungen agentischer Halluzinationen. Jede Aktion und Entscheidung der Agenten wird protokolliert und ist erklärbar, was die Compliance und Aufsicht unterstützt.

Entscheidungen unterliegen der menschlichen Aufsicht, wobei Agenten Aufgaben ausführen, die mit etablierten und testbaren Richtlinien übereinstimmen, die über ein Dashboard überwacht werden.

Schlussfolgerung

Die Funktion „Policy as Code“ ist besonders wertvoll in stark regulierten Branchen wie Finanzdienstleistungen, Gesundheitswesen und Regierung. Sie hilft diesen Branchen, die vollen Vorteile von KI und agentischer KI zu realisieren, indem sie das Risiko derartiger Compliance-Fehler verringert, die den Ruf schädigen und hohe finanzielle Strafen nach sich ziehen können. Durch die Durchsetzung programmatischer Regeln in großem Maßstab hilft „Policy as Code“, menschliche Fehler zu eliminieren, die zu unangemessenen Berechtigungen für KI führen können.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...