KI und Cybersecurity: Verteidigung gegen intelligente Bedrohungen

Wenn KI zurückschlägt: Verteidigung gegen die nächste Welle intelligenter Bedrohungen

Die Cybersecurity hat sich traditionell in stetigen, durchdachten Schritten entwickelt. Organisationen investierten in Firewalls, Endpoint-Schutz, Security Information and Event Management (SIEM) und Compliance-Rahmenwerke, um digitale Vermögenswerte zu schützen. Über Jahre hinweg blieb der Kampf zwischen Angreifern und Verteidigern weitgehend symmetrisch: ausnutzen und patchen, eindringen und reagieren, anpassen und kontern. Doch Künstliche Intelligenz (KI) und Maschinenlernen (ML) verschieben dieses Gleichgewicht. Heutzutage sind Anomalieerkennung, verhaltensbasierte Analytik und echtzeitliche Bedrohungsbewertung wesentliche Werkzeuge, die sowohl die Reaktion als auch die Resilienz beschleunigen.

Mit dem Aufstieg der generativen KI (Gen KI) und den raschen Fortschritten in der agentischen KI wird das Spielfeld dauerhaft verändert. Die führenden großen Sprachmodelle (LLMs) aus sowohl proprietären als auch Open-Source-Communities haben kontextuelles, menschenähnliches Denken in den Mainstream gebracht. Innerhalb eines Jahres haben Millionen – von Entwicklern und Marketern bis hin zu Cyberkriminellen – Gen KI genutzt. Diese Demokratisierung der KI hat ein Dilemma hervorgebracht: Die gleiche Technologie, die Produktivität fördert, rüstet auch Cyberangreifer aus.

Die sich entwickelnde Bedrohung: Vom Missbrauch generativer KI zu bösartigen Agenten

Zwischen 2022 und 2023 begannen Cyberkriminelle, Gen KI zu nutzen, um polymorphe Malware zu erstellen, einen Code, der sich ständig ändert, um signaturbasierte Erkennung zu umgehen. Zu dieser Zeit tauchte ein neues bösartiges Modell namens WormGPT auf Hackerforen auf. Trainiert auf Malware-Repositories und ohne die ethischen Sicherheitsvorkehrungen, die in LLMs vorhanden sind, ermöglichte WormGPT automatisierte, kontextbewusste Phishing-Kampagnen.

Bedrohungsakteure nutzen sogar Gen KI für Imitationen. Ein bemerkenswerter Vorfall ereignete sich in Hongkong, wo Betrüger die Deepfake-Technologie verwendeten, um das Aussehen und die Stimme eines CFO eines Unternehmens während eines Videoanrufs zu replizieren. Die Täuschung war so überzeugend, dass ein Finanzmitarbeiter über 25 Millionen Dollar an die Betrüger überwies.

Die interne Nutzung von Gen KI innerhalb von Unternehmen hat das Problem der Shadow KI verschärft, das oft zu Datenexposition führt, da unbefugte Mitarbeiter Gen KI-Tools ohne das ausdrückliche Wissen, die Genehmigung oder die Aufsicht der IT- oder Sicherheitsteams des Unternehmens verwenden. Im Jahr 2023 leakten Ingenieure eines globalen Elektronikunternehmens versehentlich vertrauliche Quellcodes und Besprechungsprotokolle in ein öffentliches Gen KI-Tool, während sie debugten und Notizen zusammenfassten. Dieser Vorfall führte dazu, dass das Unternehmen solche Tools intern verbot und in den Aufbau sicherer, unternehmensspezifischer LLMs investierte.

Überdenken der Cyberverteidigung: KI als Multiplikator

Diese Herausforderungen zwingen Organisationen dazu, nicht nur ihre Werkzeuge, sondern auch ihre Sicherheitsphilosophie neu zu überdenken. Traditionelle Perimeterverteidigungen und signaturbasierte Erkennungsmodelle sind unzureichend gegen dynamische, kontextuelle und zunehmend automatisierte Angriffe. In diesem Umfeld müssen Sicherheitsteams auf mehreren Fronten handeln.

Gen KI und agentische KI zu Verbündeten in der Cyberverteidigung machen: Verteidiger müssen KI nicht nur als Produktivitätswerkzeug, sondern als Multiplikator in der Cyberverteidigung akzeptieren. Führende Sicherheitsplattform-Anbieter haben LLMs integriert, um die Protokollanalyse zu automatisieren, Alarme zusammenzufassen, Fehlalarme zu reduzieren und Vorfälle basierend auf geschäftlichem Risiko zu priorisieren.

Darüber hinaus betten Organisationen Sicherheit in den gesamten Lebenszyklus von KI-Systemen ein, um sicherzustellen, dass Sicherheitsmaßnahmen von der Entwicklung bis zur Bereitstellung und im täglichen Betrieb integriert sind.

Die Politik reagiert: Globale KI-Governance beschleunigt sich

Angesichts der wachsenden Anerkennung der systemischen Auswirkungen von KI bewegen sich Regierungen weltweit von explorativen Richtlinien zu durchsetzbaren Vorgaben. Über 1.000 KI-bezogene Vorschriften wurden in 69 Ländern erlassen, wobei allein in den USA 59 im Jahr 2024 eingeführt wurden – ein Anstieg um das 2,5-fache im Vergleich zu 2023.

Diese Rahmenbedingungen werden zunehmend sektorspezifisch und risikobasiert, wobei der Schwerpunkt auf Transparenz, Sicherheit und Verantwortlichkeit liegt. Die EU-KI-Verordnung, die im August 2024 abgeschlossen wurde, führt einen gestuften Risikorahmen ein und unterwirft allgemeine KI-Modelle strengeren Verpflichtungen, um Missbrauch zu verhindern.

Richtung einer cyberbewussten, KI-nativen Kultur

Der wichtigste Übergang ist nicht nur technologisch, sondern auch kulturell. Sicherheitsteams müssen aufhören, KI als externes Problem zu betrachten, das es zu verteidigen gilt, und beginnen, sie als interne Fähigkeit zu betrachten, die es zu meistern gilt. Die zukunftsfähigsten Organisationen werden diejenigen sein, die eine starke interne Modellgovernance aufbauen und ihre Mitarbeiter in der effektiven Nutzung von KI schulen.

KI wird Cybersecurity-Profis nicht ersetzen. Aber diejenigen, die sie verantwortungsbewusst und mit ethischen Leitplanken im großen Maßstab nutzen, werden diejenigen ersetzen, die dies nicht tun.

More Insights

Zukunft der KI: Kooperation statt Wettbewerb

In der heutigen schnelllebigen Welt verändert die Technologie, insbesondere die künstliche Intelligenz (KI), unsere Gesellschaft grundlegend und stellt unsere Ethik in Frage. Anstatt den Fortschritt...

Pakistans nationale KI-Politik: Ein ehrgeiziger Plan für Innovation und Arbeitsplatzschaffung

Pakistan hat eine ehrgeizige nationale KI-Politik eingeführt, die darauf abzielt, innerhalb von fünf Jahren einen Binnenmarkt für KI im Wert von 2,7 Milliarden USD aufzubauen. Die Politik umfasst...

Ethik im KI-Management: Ein Leitfaden für Unternehmen

Dieser Leitfaden erläutert, warum ethische Governance ein entscheidender Faktor für skalierbare KI ist und was Unternehmen tun können, um langfristige Resilienz zu gewährleisten. Er bietet umsetzbare...

Umfassende KI-Strategien für die Hochschulbildung

Künstliche Intelligenz revolutioniert das Lernen, Lehren und die Abläufe im Hochschulbereich, indem sie personalisierte Lernbegleiter bietet und die institutionelle Resilienz stärkt. Hochschulen...

KI-Governance: Verantwortungsvoll mit globalen Standards ausrichten

Künstliche Intelligenz (KI) prägt zunehmend die Finanzdienstleistungen, die Landwirtschaft, die Bildung und sogar die Regierungsführung in Afrika. Ghana hat im Mai 2025 seine erste nationale...

Die bevorstehende KI-Krise

Die wirtschaftliche Transformation durch KI hat begonnen, wobei Unternehmen wie IBM und Salesforce Mitarbeiter durch KI-Chatbots ersetzt haben. Arbeitnehmer befürchten massenhafte Entlassungen durch...

Ethik der digitalen Arbeit: Verantwortung für die KI-Arbeitskraft

Die digitale Arbeit wird im Arbeitsplatz immer häufiger, jedoch gibt es nur wenige allgemein akzeptierte Regeln für ihre Governance. Die größte Herausforderung für Führungskräfte besteht darin, die...

Anthropic bringt Petri-Tool zur Automatisierung von KI-Sicherheitsaudits

Anthropic hat Petri, ein Open-Source-Tool zur automatisierten Prüfung der Sicherheit von KI, vorgestellt, das große Sprachmodelle (LLMs) auf riskantes Verhalten testet. Das Tool nutzt autonome...

EU KI-Gesetz und DSGVO: Konflikt oder Einklang?

Künstliche Intelligenz ist das allgegenwärtige Schlagwort in der Rechtsbranche, und der EU AI Act steht im Fokus vieler Juristen. In diesem Artikel werden die bedeutendsten Wechselwirkungen zwischen...