KI und Cybersecurity: Die Notwendigkeit von Verantwortung

KI, Verantwortlichkeit und der Cybersecurity-Weckruf

Die Integration von Künstlicher Intelligenz (KI) in Unternehmen bringt nicht nur Innovationen und betriebliche Transformationen mit sich, sondern verändert auch die Bedrohungslandschaft im Bereich Cybersecurity. Während KI den Chief Information Security Officers (CISOs) hilft, die Erkennung und Reaktion auf Bedrohungen zu verbessern, führt sie gleichzeitig zu immer ausgeklügelteren Cyberangriffen. Die gleichen KI-Modelle, die wertvolle Einblicke generieren, können auch gefälschte Identitäten, Phishing-Kampagnen und Malware erzeugen.

Die erweiterte Bedrohungslandschaft

Die Nutzung von KI hat die Möglichkeiten für Cyberkriminelle verändert. Diese können generative Modelle verwenden, um personalisierte Phishing-Nachrichten zu erstellen, Malware zu automatisieren, die Erkennung umgehen kann, und sogar Audio und Video zu manipulieren, um Führungskräfte durch Deepfakes zu imitieren. Diese Taktiken sind nicht mehr nur auf staatliche Akteure oder Elite-Hackergruppen beschränkt, sondern sind auch über Open-Source-Tools und KI-als-Service-Plattformen zugänglich.

Eine Untersuchung zeigt, dass 44 % der Unternehmen interne Nachlässigkeit und fehlendes Bewusstsein für Cybersecurity als die größten Schwachstellen angeben, noch vor Ransomware. Viele Unternehmen hinken der sich entwickelnden Natur der Angriffe hinterher: Veraltete Systeme, schwache Patch-Management-Strategien und unzureichende Sicherheitspraktiken machen es Cyberkriminellen leicht, Netzwerke zu durchdringen.

Verschwommene Verantwortlichkeiten

Ein zentrales Ergebnis des Berichts ist die Unklarheit hinsichtlich der Verantwortlichkeit für Cybersecurity. Während 53 % der CISOs direkt an CIOs berichten, sind die anderen auf verschiedene Führungsebenen verteilt, darunter COOs, CFOs und Rechtsabteilungen. Dies schwächt die Entscheidungsfindung und führt zu Verwirrung darüber, wer tatsächlich für die Sicherheitsresultate verantwortlich ist.

Diese Problematik wird noch akuter, wenn KI ins Spiel kommt. Der Bericht zeigt, dass 70 % der europäischen Befragten glauben, dass die Implementierung von KI eine gemeinsame Verantwortung sein sollte, jedoch nur 13 % ein festgelegtes Team haben, das dies überwacht. Die Einführung von KI erfolgt oft ohne kritische Risikoaufsicht, was zu inkonsistenten Praktiken und unverwalteten Schwachstellen führt.

Die Rolle der KI bei der Neugestaltung der Sicherheit

Obwohl KI neue Bedrohungen schafft, bietet sie auch leistungsstarke Möglichkeiten, um Organisationen beim Schutz ihrer Netzwerke zu unterstützen. KI-gesteuerte Bedrohungserkennung kann große Datenmengen in Echtzeit analysieren, falsche Positivmeldungen reduzieren und Verhaltensauffälligkeiten identifizieren, die auf einen Sicherheitsvorfall hinweisen könnten. Sie kann die Vorfalltriage automatisieren und die Reaktionszeiten beschleunigen.

Eine Umfrage zeigt, dass 93 % der befragten Organisationen KI für die Bedrohungserkennung und -reaktion priorisieren, was den Wert widerspiegelt, den Organisationen auf die Bedrohungserkennung legen. Diese doppelte Nutzung von KI erfordert einen maßvollen und verantwortungsvollen Ansatz bei der Implementierung.

Warum Mitarbeiterschulung weiterhin wichtig ist

Trotz fortschrittlicher KI-Tools bleibt menschliches Versagen die häufigste Schwachstelle in der Cybersecurity. Phishing ist der Hauptangriffsvektor für 65 % der Unternehmen. Angreifer nutzen KI, um überzeugendere Social-Engineering-Taktiken zu entwickeln, was das Risiko von benutzergetriggerten Sicherheitsvorfällen erhöht.

Ein Hauptgrund dafür ist, dass Organisationen oft Cybersicherheitsschulungen als einmalige Compliance-Aktivität betrachten. Diese Schulungen müssen ein fortlaufender Prozess sein, der sich im Laufe der Zeit weiterentwickelt. Mitarbeitende sollten über gängige Bedrohungen und KI-gestützte Risiken, wie Deepfake-Stimmenimitation oder Prompt-Injection-Angriffe, geschult werden.

Aufbau einer Kultur der Verantwortlichkeit

Die Grundlage einer Cybersecurity-Strategie ist nicht die Technologie, sondern die Transparenz. Organisationen müssen klar definieren, wer wofür verantwortlich ist, Governance-Strukturen etablieren und eine Sicherheitskultur fördern, die alle Bereiche umfasst.

Der Schlüssel liegt darin, der CISO oder einer gleichwertigen IT-Führungsrolle die Autorität und Sichtbarkeit zu geben. Es ist sinnvoll, cross-funktionale Cyber-Risiko-Ausschüsse zu bilden, die Vertreter aus IT, Compliance, Recht und Geschäftsbereichen umfassen.

Die Governance-Rahmenwerke für KI-Implementierungen müssen Kontrollen über Trainingsdaten, Modellbereitstellung, Zugriffsrechte und Echtzeitüberwachung beinhalten. Diese Rahmenwerke sollten sich parallel zu Vorschriften und aufkommenden Branchenstandards für ethischen KI-Einsatz weiterentwickeln.

Von der Bewusstseinsbildung zur Aktion

Die KI verändert die Cybersecurity-Landschaft. Angreifer sind schneller, skalierbarer und zunehmend automatisiert. Verteidiger verfügen über leistungsstarke Werkzeuge, aber allein diese Werkzeuge werden nicht ausreichen.

Organisationen müssen bessere Governance-Prozesse entwickeln, nicht nur leistungsfähigere Algorithmen. Dazu gehört, die Verantwortlichkeit für KI-Systeme zu klären und KI möglicherweise in die Cybersecurity-Strategie einzubeziehen.

Der Bericht sendet eine klare Botschaft: Die Technologie entwickelt sich rasant weiter, aber Menschen, Prozesse und Prioritäten hinken hinterher. Diese Lücke zu schließen, ist ein strategisches Gebot, besonders jetzt, da KI ins Spiel gekommen ist.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...