Sicherheitsrisiken durch Agentic AI: Ein wachsendes Problem

#Infosec2025: Wachsendes Risiko von Agentic AI für die Sicherheit

Agentic AI und KI-Tools, die ohne menschliche Aufsicht miteinander verbunden sind, stellen laut Experten bei Infosecurity Europe ein zunehmendes Sicherheitsrisiko dar.

Was ist Agentic AI?

Agentic AI, oder KI-Agenten, operieren mit einem hohen Maß an Autonomie. Ein agentisches System könnte das KI-Modell auswählen, das es verwendet, Daten oder Ergebnisse an ein anderes KI-Tool weitergeben oder sogar Entscheidungen ohne menschliche Genehmigung treffen.

Agentic AI-Systeme arbeiten schneller als frühere Generationen von Systemen, die auf großen Sprachmodellen (LLMs) basieren, da sie ohne menschliche Anweisungen oder Eingaben funktionieren. Sie können auch lernen und die Modelle sowie die Eingaben, die sie verwenden, anpassen.

Risiken der Kettenbildung

Schwierigkeiten können jedoch auftreten, wenn Organisationen KI-Komponenten wie generative KI-Tools oder Chatbots ohne zusätzliche Prüfungen miteinander verknüpfen oder Agenten autonome Entscheidungen treffen lassen. Dies geschieht bereits in der IT, beispielsweise beim Schreiben von Code und der Konfiguration von Systemen.

Dies erhöht das Risiko, dass die KI-Implementierungen der Organisationen schneller voranschreiten als die Sicherheitskontrollen.

Forschungsbefunde

Laut einer Studie des Beratungsunternehmens EY geben nur 31 % der Unternehmen an, dass ihre KI-Implementierung vollständig ausgereift ist. Darüber hinaus zeigt die Studie, dass die KI-Governance in Unternehmen hinter der KI-Innovation zurückbleibt.

Diese Problematik tritt besonders bei agentic AI zutage, da sie die bereits identifizierten Risiken von LLMs verstärken kann.

Gemeinsame Risiken

Agentic AI-Systeme sind denselben Risiken ausgesetzt wie ihre Vorgänger, einschließlich Prompt-Injection, Manipulation, Voreingenommenheit und Ungenauigkeiten.

Die Probleme können sich jedoch verschlimmern, wenn ein Agent ungenaue, voreingenommene oder manipulierte Daten an einen anderen weitergibt. Selbst eine relativ niedrige Fehlerquote von wenigen Prozent kann sich über Subsysteme hinweg zu einem erheblichen Fehler summieren.

Die Sicherheit wird noch weiter verschärft, wenn KI-Tools mit Datenquellen verbunden sind, die außerhalb der Kontrolle des Unternehmens liegen.

Notwendigkeit einer Sicherheitsstrategie

„Statt dass KI direkt mit Menschen spricht, kommuniziert sie mit anderen KI-Systemen“, erklärte ein Experte.

„Wir benötigen eine Zwischenschicht für KI-Sicherheit, insbesondere wenn Sie Informationen von außen sammeln oder einpflegen.“

„Je mehr wir die Technologie nutzen, desto mehr wird sie zu einem Schwachpunkt, der ausgenutzt werden kann“, fügte der Experte hinzu.

Dringlichkeit für Sicherheitsmaßnahmen

Die schnelle Entwicklung von agentic AI erfordert von den Sicherheitsteams, dass sie schnell potenzielle Sicherheitsrisiken identifizieren und melden.

Die Forschung von EY ergab, dass 76 % der Unternehmen agentic AI bereits nutzen oder dies innerhalb eines Jahres planen. Gleichzeitig gaben nur 56 % an, dass sie moderat oder vollständig mit den Risiken vertraut sind.

„Die KI-Implementierung unterscheidet sich erheblich von der Einführung früherer Technologien“, erklärte ein führender Experte.

„Es ist kein einmaliger Prozess, sondern eine Reise, bei der Ihre KI-Governance und -Kontrollen mit den Investitionen in die KI-Funktionalität Schritt halten müssen.“

Risiken und Herausforderungen

Laut einem Direktor für Sicherheit bei Snyk zwingt die rasche Einführung von agentic AI Organisationen dazu, ihre Kontrollen und Richtlinien zu verschärfen und zu prüfen, ob agentische Systeme ihre Angriffsfläche vergrößern.

„Agentic AI ist nicht mehr nur im Labor“, bemerkte er.

Die Code-Entwicklung ist ein Bereich, in dem Agenten eingesetzt werden.

„Wenn Agenten Code schreiben, muss dieser sicher sein“, warnte er.

„Sie müssen den von Agenten generierten Code testen und ihnen die richtigen Schutzmaßnahmen bieten.“

Entwickler verwenden agentic AI, weil sie die Codeproduktion beschleunigt. In anderen Unternehmen verbessern Agenten den Kundenservice und die Automatisierung.

Frühere Generationen von Kundenservicerobotern mussten oft an menschliche Agenten übergeben werden, wenn sie keine Antworten mehr hatten. Agentic AI-Systeme hingegen können Probleme selbst beheben.

„KI-Agenten verändern rasch, wie Unternehmen mit Kunden interagieren, Betriebsabläufe automatisieren und Dienstleistungen bereitstellen“, sagte ein Cybersecurity-Strategieexperte.

Doch dies hängt sowohl von den Entwicklern der KI-Tools als auch von den IT-Teams ab, die dafür sorgen müssen, dass die APIs, die die KI-Tools miteinander verbinden, ebenfalls sicher sind.

„Diese Schnittstellen sind nicht nur technische Verbindungen, sie bieten die lebenswichtigen Verbindungen, über die KI-Agenten auf Daten zugreifen, Aufgaben ausführen und plattformübergreifend integriert werden. Ohne robuste API-Sicherheit wird selbst die fortschrittlichste KI zu einer Schwachstelle anstatt zu einem Vermögenswert“, erklärte er.

Wie gewarnt wurde, kommt das Risiko bei agentic AI-Systemen nicht nur von den Komponenten selbst, sondern auch von der Verwendung dieser Komponenten zusammen – „Das Sicherheitsrisiko liegt in den Lücken.“

Es wird empfohlen, AI Red Teaming durchzuführen, um zu testen, ob die KI-Implementierungen sicher sind, sowie Werkzeuge wie AI Bills of Materials zu verwenden, um zu überprüfen, welche Technologien wo eingesetzt werden, und die Verbindungen und Übergaben zwischen KI-Agenten zu dokumentieren.

„CISOs haben keine Sichtbarkeit“, wurde festgestellt.

„Deshalb haben wir AI Bills of Materials entwickelt, die es Ihnen ermöglichen, die Modelle und Datensätze, die Sie verwenden, sowie die Abhängigkeiten in Ihrem Code und Ihren Anwendungen zu sehen.“

More Insights

USA bricht mit UN über globale KI-Regulierung

Die US-Beamten lehnten einen Vorschlag zur Schaffung eines globalen KI-Governance-Rahmens bei der dieswöchigen Generalversammlung der Vereinten Nationen ab, obwohl der Plan von vielen Ländern...

Agentic AI: Risiken und Governance für Unternehmen

In der schnelllebigen Welt der künstlichen Intelligenz wenden sich Unternehmen zunehmend agentischen KI-Systemen zu, die Entscheidungen treffen und Aufgaben autonom ausführen können. Diese...

Die wachsende Rolle von KI als Meinungswächter und die alarmierenden versteckten Vorurteile

Die wachsende Rolle von KI als Meinungsgatekeeper wirft Bedenken hinsichtlich versteckter Vorurteile auf. Eine neue Studie warnt davor, dass subtile Vorurteile in KI-Systemen den öffentlichen Diskurs...

Regulierungsdruck auf KI: Eine neue Ära der Verantwortung

Die aufkommende Welt der Künstlichen Intelligenz (KI) befindet sich an einem kritischen Punkt, da eine Welle von Regulierungsmaßnahmen und rechtlichen Präzedenzfällen einen globalen Wandel hin zu mehr...

Die Auswahl der richtigen KI-Governance-Tools

Mit der beschleunigten Einführung von generativer KI steigen auch die Risiken. Um diese Herausforderungen zu bewältigen, haben wir mit Tokio Marine Holdings und Tokio Marine & Nichido Systems...

UN fördert globale Standards für sichere KI

Die Vereinten Nationen setzen sich dafür ein, einen globalen Konsens über „sichere, geschützte und vertrauenswürdige“ KI zu schaffen, indem sie Richtlinien und technische Standards fördern. Ein neuer...

Die Algorithmenregierung: Wie Datenwissenschaftler die Politik gestalten

In einer fesselnden Diskussion in Singapur sprachen Thomas Roehm von SAS und Frankie Phua von der United Overseas Bank über die Herausforderungen der KI-Regulierung. Ihr Gespräch beleuchtete das...

Vorbereitung von KMUs auf die KI-Regulierungen der EU

Klein- und Mittelunternehmen (KMU) stehen vor erheblichen Herausforderungen durch die KI-Verordnung der EU, insbesondere im Hinblick auf die Einhaltung strenger Vorschriften und potenziell hohe...