Sicherheitsrisiken durch Agentic AI: Ein wachsendes Problem

#Infosec2025: Wachsendes Risiko von Agentic AI für die Sicherheit

Agentic AI und KI-Tools, die ohne menschliche Aufsicht miteinander verbunden sind, stellen laut Experten bei Infosecurity Europe ein zunehmendes Sicherheitsrisiko dar.

Was ist Agentic AI?

Agentic AI, oder KI-Agenten, operieren mit einem hohen Maß an Autonomie. Ein agentisches System könnte das KI-Modell auswählen, das es verwendet, Daten oder Ergebnisse an ein anderes KI-Tool weitergeben oder sogar Entscheidungen ohne menschliche Genehmigung treffen.

Agentic AI-Systeme arbeiten schneller als frühere Generationen von Systemen, die auf großen Sprachmodellen (LLMs) basieren, da sie ohne menschliche Anweisungen oder Eingaben funktionieren. Sie können auch lernen und die Modelle sowie die Eingaben, die sie verwenden, anpassen.

Risiken der Kettenbildung

Schwierigkeiten können jedoch auftreten, wenn Organisationen KI-Komponenten wie generative KI-Tools oder Chatbots ohne zusätzliche Prüfungen miteinander verknüpfen oder Agenten autonome Entscheidungen treffen lassen. Dies geschieht bereits in der IT, beispielsweise beim Schreiben von Code und der Konfiguration von Systemen.

Dies erhöht das Risiko, dass die KI-Implementierungen der Organisationen schneller voranschreiten als die Sicherheitskontrollen.

Forschungsbefunde

Laut einer Studie des Beratungsunternehmens EY geben nur 31 % der Unternehmen an, dass ihre KI-Implementierung vollständig ausgereift ist. Darüber hinaus zeigt die Studie, dass die KI-Governance in Unternehmen hinter der KI-Innovation zurückbleibt.

Diese Problematik tritt besonders bei agentic AI zutage, da sie die bereits identifizierten Risiken von LLMs verstärken kann.

Gemeinsame Risiken

Agentic AI-Systeme sind denselben Risiken ausgesetzt wie ihre Vorgänger, einschließlich Prompt-Injection, Manipulation, Voreingenommenheit und Ungenauigkeiten.

Die Probleme können sich jedoch verschlimmern, wenn ein Agent ungenaue, voreingenommene oder manipulierte Daten an einen anderen weitergibt. Selbst eine relativ niedrige Fehlerquote von wenigen Prozent kann sich über Subsysteme hinweg zu einem erheblichen Fehler summieren.

Die Sicherheit wird noch weiter verschärft, wenn KI-Tools mit Datenquellen verbunden sind, die außerhalb der Kontrolle des Unternehmens liegen.

Notwendigkeit einer Sicherheitsstrategie

„Statt dass KI direkt mit Menschen spricht, kommuniziert sie mit anderen KI-Systemen“, erklärte ein Experte.

„Wir benötigen eine Zwischenschicht für KI-Sicherheit, insbesondere wenn Sie Informationen von außen sammeln oder einpflegen.“

„Je mehr wir die Technologie nutzen, desto mehr wird sie zu einem Schwachpunkt, der ausgenutzt werden kann“, fügte der Experte hinzu.

Dringlichkeit für Sicherheitsmaßnahmen

Die schnelle Entwicklung von agentic AI erfordert von den Sicherheitsteams, dass sie schnell potenzielle Sicherheitsrisiken identifizieren und melden.

Die Forschung von EY ergab, dass 76 % der Unternehmen agentic AI bereits nutzen oder dies innerhalb eines Jahres planen. Gleichzeitig gaben nur 56 % an, dass sie moderat oder vollständig mit den Risiken vertraut sind.

„Die KI-Implementierung unterscheidet sich erheblich von der Einführung früherer Technologien“, erklärte ein führender Experte.

„Es ist kein einmaliger Prozess, sondern eine Reise, bei der Ihre KI-Governance und -Kontrollen mit den Investitionen in die KI-Funktionalität Schritt halten müssen.“

Risiken und Herausforderungen

Laut einem Direktor für Sicherheit bei Snyk zwingt die rasche Einführung von agentic AI Organisationen dazu, ihre Kontrollen und Richtlinien zu verschärfen und zu prüfen, ob agentische Systeme ihre Angriffsfläche vergrößern.

„Agentic AI ist nicht mehr nur im Labor“, bemerkte er.

Die Code-Entwicklung ist ein Bereich, in dem Agenten eingesetzt werden.

„Wenn Agenten Code schreiben, muss dieser sicher sein“, warnte er.

„Sie müssen den von Agenten generierten Code testen und ihnen die richtigen Schutzmaßnahmen bieten.“

Entwickler verwenden agentic AI, weil sie die Codeproduktion beschleunigt. In anderen Unternehmen verbessern Agenten den Kundenservice und die Automatisierung.

Frühere Generationen von Kundenservicerobotern mussten oft an menschliche Agenten übergeben werden, wenn sie keine Antworten mehr hatten. Agentic AI-Systeme hingegen können Probleme selbst beheben.

„KI-Agenten verändern rasch, wie Unternehmen mit Kunden interagieren, Betriebsabläufe automatisieren und Dienstleistungen bereitstellen“, sagte ein Cybersecurity-Strategieexperte.

Doch dies hängt sowohl von den Entwicklern der KI-Tools als auch von den IT-Teams ab, die dafür sorgen müssen, dass die APIs, die die KI-Tools miteinander verbinden, ebenfalls sicher sind.

„Diese Schnittstellen sind nicht nur technische Verbindungen, sie bieten die lebenswichtigen Verbindungen, über die KI-Agenten auf Daten zugreifen, Aufgaben ausführen und plattformübergreifend integriert werden. Ohne robuste API-Sicherheit wird selbst die fortschrittlichste KI zu einer Schwachstelle anstatt zu einem Vermögenswert“, erklärte er.

Wie gewarnt wurde, kommt das Risiko bei agentic AI-Systemen nicht nur von den Komponenten selbst, sondern auch von der Verwendung dieser Komponenten zusammen – „Das Sicherheitsrisiko liegt in den Lücken.“

Es wird empfohlen, AI Red Teaming durchzuführen, um zu testen, ob die KI-Implementierungen sicher sind, sowie Werkzeuge wie AI Bills of Materials zu verwenden, um zu überprüfen, welche Technologien wo eingesetzt werden, und die Verbindungen und Übergaben zwischen KI-Agenten zu dokumentieren.

„CISOs haben keine Sichtbarkeit“, wurde festgestellt.

„Deshalb haben wir AI Bills of Materials entwickelt, die es Ihnen ermöglichen, die Modelle und Datensätze, die Sie verwenden, sowie die Abhängigkeiten in Ihrem Code und Ihren Anwendungen zu sehen.“

More Insights

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...

Vertrauenswürdige KI: Erfolgsfaktor für Unternehmen im Zeitalter der Innovation

In den letzten zwanzig Jahren hat sich die Abhängigkeit von künstlicher Intelligenz (KI) zur Entscheidungsfindung in Unternehmen stark entwickelt. Um in diesem neuen Modell effektiv zu arbeiten...

KI-Regulierung in Spanien: Fortschritte und Herausforderungen

Spanien ist Vorreiter in der KI-Governance mit dem ersten KI-Regulator Europas (AESIA) und einem bereits aktiven regulatorischen Sandbox. Zudem wird ein nationaler KI-Gesetzentwurf vorbereitet, der...

Globale Regulierung von KI: Ein Überblick über Israel

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist zunehmend in das öffentliche Bewusstsein gerückt. Regierungen und Aufsichtsbehörden weltweit müssen schnell...

KI im Glücksspiel: Chancen und Herausforderungen der Regulierung

Der Einsatz von Künstlicher Intelligenz (KI) im Glücksspielsektor bringt sowohl Chancen als auch Risiken mit sich, da die regulatorischen Anforderungen steigen und die Haftungsrisiken zunehmen...