KI und Cybersecurity: Die Notwendigkeit von Verantwortung

KI, Verantwortlichkeit und der Cybersecurity-Weckruf

Die Integration von Künstlicher Intelligenz (KI) in Unternehmen bringt nicht nur Innovationen und betriebliche Transformationen mit sich, sondern verändert auch die Bedrohungslandschaft im Bereich Cybersecurity. Während KI den Chief Information Security Officers (CISOs) hilft, die Erkennung und Reaktion auf Bedrohungen zu verbessern, führt sie gleichzeitig zu immer ausgeklügelteren Cyberangriffen. Die gleichen KI-Modelle, die wertvolle Einblicke generieren, können auch gefälschte Identitäten, Phishing-Kampagnen und Malware erzeugen.

Die erweiterte Bedrohungslandschaft

Die Nutzung von KI hat die Möglichkeiten für Cyberkriminelle verändert. Diese können generative Modelle verwenden, um personalisierte Phishing-Nachrichten zu erstellen, Malware zu automatisieren, die Erkennung umgehen kann, und sogar Audio und Video zu manipulieren, um Führungskräfte durch Deepfakes zu imitieren. Diese Taktiken sind nicht mehr nur auf staatliche Akteure oder Elite-Hackergruppen beschränkt, sondern sind auch über Open-Source-Tools und KI-als-Service-Plattformen zugänglich.

Eine Untersuchung zeigt, dass 44 % der Unternehmen interne Nachlässigkeit und fehlendes Bewusstsein für Cybersecurity als die größten Schwachstellen angeben, noch vor Ransomware. Viele Unternehmen hinken der sich entwickelnden Natur der Angriffe hinterher: Veraltete Systeme, schwache Patch-Management-Strategien und unzureichende Sicherheitspraktiken machen es Cyberkriminellen leicht, Netzwerke zu durchdringen.

Verschwommene Verantwortlichkeiten

Ein zentrales Ergebnis des Berichts ist die Unklarheit hinsichtlich der Verantwortlichkeit für Cybersecurity. Während 53 % der CISOs direkt an CIOs berichten, sind die anderen auf verschiedene Führungsebenen verteilt, darunter COOs, CFOs und Rechtsabteilungen. Dies schwächt die Entscheidungsfindung und führt zu Verwirrung darüber, wer tatsächlich für die Sicherheitsresultate verantwortlich ist.

Diese Problematik wird noch akuter, wenn KI ins Spiel kommt. Der Bericht zeigt, dass 70 % der europäischen Befragten glauben, dass die Implementierung von KI eine gemeinsame Verantwortung sein sollte, jedoch nur 13 % ein festgelegtes Team haben, das dies überwacht. Die Einführung von KI erfolgt oft ohne kritische Risikoaufsicht, was zu inkonsistenten Praktiken und unverwalteten Schwachstellen führt.

Die Rolle der KI bei der Neugestaltung der Sicherheit

Obwohl KI neue Bedrohungen schafft, bietet sie auch leistungsstarke Möglichkeiten, um Organisationen beim Schutz ihrer Netzwerke zu unterstützen. KI-gesteuerte Bedrohungserkennung kann große Datenmengen in Echtzeit analysieren, falsche Positivmeldungen reduzieren und Verhaltensauffälligkeiten identifizieren, die auf einen Sicherheitsvorfall hinweisen könnten. Sie kann die Vorfalltriage automatisieren und die Reaktionszeiten beschleunigen.

Eine Umfrage zeigt, dass 93 % der befragten Organisationen KI für die Bedrohungserkennung und -reaktion priorisieren, was den Wert widerspiegelt, den Organisationen auf die Bedrohungserkennung legen. Diese doppelte Nutzung von KI erfordert einen maßvollen und verantwortungsvollen Ansatz bei der Implementierung.

Warum Mitarbeiterschulung weiterhin wichtig ist

Trotz fortschrittlicher KI-Tools bleibt menschliches Versagen die häufigste Schwachstelle in der Cybersecurity. Phishing ist der Hauptangriffsvektor für 65 % der Unternehmen. Angreifer nutzen KI, um überzeugendere Social-Engineering-Taktiken zu entwickeln, was das Risiko von benutzergetriggerten Sicherheitsvorfällen erhöht.

Ein Hauptgrund dafür ist, dass Organisationen oft Cybersicherheitsschulungen als einmalige Compliance-Aktivität betrachten. Diese Schulungen müssen ein fortlaufender Prozess sein, der sich im Laufe der Zeit weiterentwickelt. Mitarbeitende sollten über gängige Bedrohungen und KI-gestützte Risiken, wie Deepfake-Stimmenimitation oder Prompt-Injection-Angriffe, geschult werden.

Aufbau einer Kultur der Verantwortlichkeit

Die Grundlage einer Cybersecurity-Strategie ist nicht die Technologie, sondern die Transparenz. Organisationen müssen klar definieren, wer wofür verantwortlich ist, Governance-Strukturen etablieren und eine Sicherheitskultur fördern, die alle Bereiche umfasst.

Der Schlüssel liegt darin, der CISO oder einer gleichwertigen IT-Führungsrolle die Autorität und Sichtbarkeit zu geben. Es ist sinnvoll, cross-funktionale Cyber-Risiko-Ausschüsse zu bilden, die Vertreter aus IT, Compliance, Recht und Geschäftsbereichen umfassen.

Die Governance-Rahmenwerke für KI-Implementierungen müssen Kontrollen über Trainingsdaten, Modellbereitstellung, Zugriffsrechte und Echtzeitüberwachung beinhalten. Diese Rahmenwerke sollten sich parallel zu Vorschriften und aufkommenden Branchenstandards für ethischen KI-Einsatz weiterentwickeln.

Von der Bewusstseinsbildung zur Aktion

Die KI verändert die Cybersecurity-Landschaft. Angreifer sind schneller, skalierbarer und zunehmend automatisiert. Verteidiger verfügen über leistungsstarke Werkzeuge, aber allein diese Werkzeuge werden nicht ausreichen.

Organisationen müssen bessere Governance-Prozesse entwickeln, nicht nur leistungsfähigere Algorithmen. Dazu gehört, die Verantwortlichkeit für KI-Systeme zu klären und KI möglicherweise in die Cybersecurity-Strategie einzubeziehen.

Der Bericht sendet eine klare Botschaft: Die Technologie entwickelt sich rasant weiter, aber Menschen, Prozesse und Prioritäten hinken hinterher. Diese Lücke zu schließen, ist ein strategisches Gebot, besonders jetzt, da KI ins Spiel gekommen ist.

More Insights

EU-KI-Gesetz und seine Auswirkungen auf die Unternehmensführung

Dieses Forschungsprojekt untersucht, wie das EU-Gesetz über Künstliche Intelligenz (KI-Gesetz) eine systemische Transformation in den Rahmenbedingungen für Unternehmensführung und Verantwortung...

KI und Cybersecurity: Die Notwendigkeit von Verantwortung

Organisationen müssen sich mit der Realität auseinandersetzen, dass KI die Bedrohungslandschaft in der Cybersicherheit schnell verändert. Während KI dabei hilft, die Erkennung und Reaktion zu...

Intelligente Ansätze zur KI-Governance in Thailand

Thailand hat Prinzipien für die Gesetzgebung im Bereich künstliche Intelligenz (KI) entworfen, um ein KI-Ökosystem zu schaffen und die Einführung zu erweitern. Das Gesetz zielt darauf ab, Benutzern...

Texas führt umfassende KI-Gesetze mit spezifischen Gesundheitsvorschriften ein

Texas hat mit dem Inkrafttreten des House Bill (HB) 149 und des Senate Bill (SB) 1188 bedeutende Schritte zur Regulierung der künstlichen Intelligenz (KI) unternommen. Diese Gesetze zielen darauf ab...

Risiko intelligent managen: Neue KI-Governance-Lösungen von Riskonnect

Riskonnect hat eine neue Lösung für die KI-Governance eingeführt, die es Organisationen ermöglicht, KI verantwortungsbewusst zu nutzen und gleichzeitig Innovation, Aufsicht und Compliance in Einklang...

AI-Alignment und Governance: Neue Wege für die Zukunft

Gillian K. Hadfield wurde zur Bloomberg Distinguished Professorin für KI-Ausrichtung und Governance an der Johns Hopkins University ernannt. Sie konzentriert sich darauf, sicherzustellen, dass...

Der Brüsseler Trugschluss: Die globale Wirkung des EU KI-Gesetzes

Der EU AI Act wird zunehmend als symbolisches Modell statt als praktischer Leitfaden für Länder, die KI-Gesetzgebungen entwickeln, betrachtet. Diese Entwicklung führt dazu, dass der Einfluss des EU AI...

Der Brüsseler Trugschluss: Die globale Wirkung des EU KI-Gesetzes

Der EU AI Act wird zunehmend als symbolisches Modell statt als praktischer Leitfaden für Länder, die KI-Gesetzgebungen entwickeln, betrachtet. Diese Entwicklung führt dazu, dass der Einfluss des EU AI...