Künstliche Intelligenz und Cyberangriffe: Neue Herausforderungen für Sicherheit und regulatorische Compliance
Die rasante Systematisierung von Waffentechnologien mithilfe künstlicher Intelligenz verändert die Landschaft der Cyberbedrohungen und stellt langjährige Annahmen über die Durchführung, Erkennung und Untersuchung von Angriffen infrage. KI-gestützte Werkzeuge wie agentische KI-Systeme und polymorphe Malware beschleunigen Cyberangriffe, senken die Eintrittsbarrieren für Bedrohungsakteure und decken Schwachstellen in traditionellen Modellen der Vorfallreaktion und Forensik auf.
Der Wandel in der Cyberkriminalität
Frühere Anwendungen von KI in der Cyberkriminalität konzentrierten sich auf inkrementelle Verbesserungen, beispielsweise bei Phishing-E-Mails oder der Erstellung überzeugender Deepfakes. In den letzten Jahren haben Angreifer jedoch zu „Vibe Hacking“ übergegangen, bei dem agentische KI-Systeme eingesetzt werden, die autonom über den gesamten Angriffszyklus hinweg agieren können. Diese Systeme unterstützen nicht mehr nur menschliche Betreiber, sondern führen eigenständig Aufklärung durch, identifizieren Schwachstellen, nutzen Systeme aus, bewegen sich lateral durch Netzwerke und exfiltrieren Daten mit minimaler Aufsicht.
Implikationen für Geschwindigkeit und Umfang
Die Veränderungen haben tiefgreifende Auswirkungen auf die Geschwindigkeit und den Umfang von Cyberangriffen. Aufgaben, die früher Wochen in Anspruch nahmen, können nun in Stunden oder Tagen ausgeführt werden. KI-Agenten können Tausende von Endpunkten scannen, Ausnutzungstechniken in Echtzeit anpassen und gestohlene Daten schnell analysieren, um wertvolle Vermögenswerte zu priorisieren. Diese Kompression des Angriffszyklus erhöht die Wahrscheinlichkeit, dass Organisationen Sicherheitsverletzungen erst nach erheblichen Schäden entdecken.
Ein Vorfall Ende 2025, der von einer staatlich geförderten Gruppe durchgeführt wurde, verdeutlicht diese Risiken. Die Gruppe manipulierte KI-Coding-Tools, um die meisten Elemente einer mehrstufigen Eindringkampagne autonom auszuführen. Menschliches Eingreifen beschränkte sich weitgehend auf strategische Aufsicht. Obwohl die KI-Systeme noch Einschränkungen aufwiesen, wie gelegentliche Halluzinationen oder Fehlklassifizierungen von Daten, können diese Schwächen schnell mit minimalem menschlichem Input korrigiert werden, was darauf hindeutet, dass vollständig autonome Angriffe zunehmend realisierbar werden.
Die Bedrohung durch polymorphe Malware
Ein zusätzliches Risiko stellt die Entstehung von KI-gestützter polymorpher Malware dar. Im Gegensatz zu herkömmlicher Malware, die oft durch Signaturen oder Heuristiken erkannt werden kann, schreibt diese Malware ihren eigenen Code während der Ausführung kontinuierlich um. Diese dynamische Mutation ermöglicht es der Malware, Erkennung zu umgehen und sich in Echtzeit an Abwehrmaßnahmen anzupassen, was die Effektivität konventioneller Endpunkt- und Netzwerksicherheitswerkzeuge untergräbt.
Herausforderungen für rechtliche und regulatorische Aspekte
Ein neuerer Risikobereich betrifft Angriffe, die sich gezielt gegen KI-Systeme selbst richten. Techniken wie die Eingabe schädlicher Anweisungen in scheinbar harmlose Eingaben nutzen die Denkprozesse großer Sprachmodelle aus. Da diese Angriffe innerhalb des kognitiven Prozesses der KI stattfinden, hinterlassen sie oft keine forensischen Spuren.
Das Fehlen dieser Spuren stellt rechtliche und Governance-technische Herausforderungen dar, insbesondere für Organisationen, die regulatorischen Kontrollen unterliegen. Konventionelle Vorfallreaktionshandbücher gehen davon aus, dass systematische Protokolle Ereignisse rekonstruieren und Kausalitäten herstellen können. KI-gesteuerte Angriffe untergraben diese Annahme und zwingen Unternehmen dazu, zu überdenken, wie sie KI-Verhalten überwachen, prüfen und Beweise sichern.
Empfehlungen zur Risikominderung
Um diesen Risiken zu begegnen, sollten Unternehmen ihre Vorfallreaktionspläne aktualisieren, um KI-gestützte Bedrohungen zu berücksichtigen und Szenarien wie polymorphe Malware oder Eingabeangriffe in Übungen einzubeziehen. Untersuchungen sollten so strukturiert werden, dass sie KI-spezifische Beweise erfassen, einschließlich Eingaben und Modelloutputs, während das Anwalts-Client-Privileg gewahrt bleibt. Organisationen wird auch geraten, die Eingaben und Ausgaben von KI zu prüfen, Verträge mit Anbietern zu überprüfen, um sicherzustellen, dass Sicherheitsverpflichtungen in Bezug auf KI eingehalten werden, und Governance-Rahmen zu stärken, um die Sichtbarkeit von KI-Risiken auf Vorstandsebene zu gewährleisten.
Die Beobachtung regulatorischer und haftungsrechtlicher Entwicklungen ist ebenfalls entscheidend, da sich die Aufsichtsbehörden zunehmend auf die Governance von KI und Cybersicherheit konzentrieren. Unternehmen, die ihre Kontrollen und Reaktionsstrategien nicht anpassen, laufen Gefahr, einer erhöhten rechtlichen Haftung ausgesetzt zu sein.