KI-gestützte Cyberangriffe: Neue Herausforderungen für Sicherheit und Compliance

Künstliche Intelligenz und Cyberangriffe: Neue Herausforderungen für Sicherheit und regulatorische Compliance

Die rasante Systematisierung von Waffentechnologien mithilfe künstlicher Intelligenz verändert die Landschaft der Cyberbedrohungen und stellt langjährige Annahmen über die Durchführung, Erkennung und Untersuchung von Angriffen infrage. KI-gestützte Werkzeuge wie agentische KI-Systeme und polymorphe Malware beschleunigen Cyberangriffe, senken die Eintrittsbarrieren für Bedrohungsakteure und decken Schwachstellen in traditionellen Modellen der Vorfallreaktion und Forensik auf.

Der Wandel in der Cyberkriminalität

Frühere Anwendungen von KI in der Cyberkriminalität konzentrierten sich auf inkrementelle Verbesserungen, beispielsweise bei Phishing-E-Mails oder der Erstellung überzeugender Deepfakes. In den letzten Jahren haben Angreifer jedoch zu „Vibe Hacking“ übergegangen, bei dem agentische KI-Systeme eingesetzt werden, die autonom über den gesamten Angriffszyklus hinweg agieren können. Diese Systeme unterstützen nicht mehr nur menschliche Betreiber, sondern führen eigenständig Aufklärung durch, identifizieren Schwachstellen, nutzen Systeme aus, bewegen sich lateral durch Netzwerke und exfiltrieren Daten mit minimaler Aufsicht.

Implikationen für Geschwindigkeit und Umfang

Die Veränderungen haben tiefgreifende Auswirkungen auf die Geschwindigkeit und den Umfang von Cyberangriffen. Aufgaben, die früher Wochen in Anspruch nahmen, können nun in Stunden oder Tagen ausgeführt werden. KI-Agenten können Tausende von Endpunkten scannen, Ausnutzungstechniken in Echtzeit anpassen und gestohlene Daten schnell analysieren, um wertvolle Vermögenswerte zu priorisieren. Diese Kompression des Angriffszyklus erhöht die Wahrscheinlichkeit, dass Organisationen Sicherheitsverletzungen erst nach erheblichen Schäden entdecken.

Ein Vorfall Ende 2025, der von einer staatlich geförderten Gruppe durchgeführt wurde, verdeutlicht diese Risiken. Die Gruppe manipulierte KI-Coding-Tools, um die meisten Elemente einer mehrstufigen Eindringkampagne autonom auszuführen. Menschliches Eingreifen beschränkte sich weitgehend auf strategische Aufsicht. Obwohl die KI-Systeme noch Einschränkungen aufwiesen, wie gelegentliche Halluzinationen oder Fehlklassifizierungen von Daten, können diese Schwächen schnell mit minimalem menschlichem Input korrigiert werden, was darauf hindeutet, dass vollständig autonome Angriffe zunehmend realisierbar werden.

Die Bedrohung durch polymorphe Malware

Ein zusätzliches Risiko stellt die Entstehung von KI-gestützter polymorpher Malware dar. Im Gegensatz zu herkömmlicher Malware, die oft durch Signaturen oder Heuristiken erkannt werden kann, schreibt diese Malware ihren eigenen Code während der Ausführung kontinuierlich um. Diese dynamische Mutation ermöglicht es der Malware, Erkennung zu umgehen und sich in Echtzeit an Abwehrmaßnahmen anzupassen, was die Effektivität konventioneller Endpunkt- und Netzwerksicherheitswerkzeuge untergräbt.

Herausforderungen für rechtliche und regulatorische Aspekte

Ein neuerer Risikobereich betrifft Angriffe, die sich gezielt gegen KI-Systeme selbst richten. Techniken wie die Eingabe schädlicher Anweisungen in scheinbar harmlose Eingaben nutzen die Denkprozesse großer Sprachmodelle aus. Da diese Angriffe innerhalb des kognitiven Prozesses der KI stattfinden, hinterlassen sie oft keine forensischen Spuren.

Das Fehlen dieser Spuren stellt rechtliche und Governance-technische Herausforderungen dar, insbesondere für Organisationen, die regulatorischen Kontrollen unterliegen. Konventionelle Vorfallreaktionshandbücher gehen davon aus, dass systematische Protokolle Ereignisse rekonstruieren und Kausalitäten herstellen können. KI-gesteuerte Angriffe untergraben diese Annahme und zwingen Unternehmen dazu, zu überdenken, wie sie KI-Verhalten überwachen, prüfen und Beweise sichern.

Empfehlungen zur Risikominderung

Um diesen Risiken zu begegnen, sollten Unternehmen ihre Vorfallreaktionspläne aktualisieren, um KI-gestützte Bedrohungen zu berücksichtigen und Szenarien wie polymorphe Malware oder Eingabeangriffe in Übungen einzubeziehen. Untersuchungen sollten so strukturiert werden, dass sie KI-spezifische Beweise erfassen, einschließlich Eingaben und Modelloutputs, während das Anwalts-Client-Privileg gewahrt bleibt. Organisationen wird auch geraten, die Eingaben und Ausgaben von KI zu prüfen, Verträge mit Anbietern zu überprüfen, um sicherzustellen, dass Sicherheitsverpflichtungen in Bezug auf KI eingehalten werden, und Governance-Rahmen zu stärken, um die Sichtbarkeit von KI-Risiken auf Vorstandsebene zu gewährleisten.

Die Beobachtung regulatorischer und haftungsrechtlicher Entwicklungen ist ebenfalls entscheidend, da sich die Aufsichtsbehörden zunehmend auf die Governance von KI und Cybersicherheit konzentrieren. Unternehmen, die ihre Kontrollen und Reaktionsstrategien nicht anpassen, laufen Gefahr, einer erhöhten rechtlichen Haftung ausgesetzt zu sein.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...