KI und Cybersecurity: Die Notwendigkeit von Verantwortung

KI, Verantwortlichkeit und der Cybersecurity-Weckruf

Die Integration von Künstlicher Intelligenz (KI) in Unternehmen bringt nicht nur Innovationen und betriebliche Transformationen mit sich, sondern verändert auch die Bedrohungslandschaft im Bereich Cybersecurity. Während KI den Chief Information Security Officers (CISOs) hilft, die Erkennung und Reaktion auf Bedrohungen zu verbessern, führt sie gleichzeitig zu immer ausgeklügelteren Cyberangriffen. Die gleichen KI-Modelle, die wertvolle Einblicke generieren, können auch gefälschte Identitäten, Phishing-Kampagnen und Malware erzeugen.

Die erweiterte Bedrohungslandschaft

Die Nutzung von KI hat die Möglichkeiten für Cyberkriminelle verändert. Diese können generative Modelle verwenden, um personalisierte Phishing-Nachrichten zu erstellen, Malware zu automatisieren, die Erkennung umgehen kann, und sogar Audio und Video zu manipulieren, um Führungskräfte durch Deepfakes zu imitieren. Diese Taktiken sind nicht mehr nur auf staatliche Akteure oder Elite-Hackergruppen beschränkt, sondern sind auch über Open-Source-Tools und KI-als-Service-Plattformen zugänglich.

Eine Untersuchung zeigt, dass 44 % der Unternehmen interne Nachlässigkeit und fehlendes Bewusstsein für Cybersecurity als die größten Schwachstellen angeben, noch vor Ransomware. Viele Unternehmen hinken der sich entwickelnden Natur der Angriffe hinterher: Veraltete Systeme, schwache Patch-Management-Strategien und unzureichende Sicherheitspraktiken machen es Cyberkriminellen leicht, Netzwerke zu durchdringen.

Verschwommene Verantwortlichkeiten

Ein zentrales Ergebnis des Berichts ist die Unklarheit hinsichtlich der Verantwortlichkeit für Cybersecurity. Während 53 % der CISOs direkt an CIOs berichten, sind die anderen auf verschiedene Führungsebenen verteilt, darunter COOs, CFOs und Rechtsabteilungen. Dies schwächt die Entscheidungsfindung und führt zu Verwirrung darüber, wer tatsächlich für die Sicherheitsresultate verantwortlich ist.

Diese Problematik wird noch akuter, wenn KI ins Spiel kommt. Der Bericht zeigt, dass 70 % der europäischen Befragten glauben, dass die Implementierung von KI eine gemeinsame Verantwortung sein sollte, jedoch nur 13 % ein festgelegtes Team haben, das dies überwacht. Die Einführung von KI erfolgt oft ohne kritische Risikoaufsicht, was zu inkonsistenten Praktiken und unverwalteten Schwachstellen führt.

Die Rolle der KI bei der Neugestaltung der Sicherheit

Obwohl KI neue Bedrohungen schafft, bietet sie auch leistungsstarke Möglichkeiten, um Organisationen beim Schutz ihrer Netzwerke zu unterstützen. KI-gesteuerte Bedrohungserkennung kann große Datenmengen in Echtzeit analysieren, falsche Positivmeldungen reduzieren und Verhaltensauffälligkeiten identifizieren, die auf einen Sicherheitsvorfall hinweisen könnten. Sie kann die Vorfalltriage automatisieren und die Reaktionszeiten beschleunigen.

Eine Umfrage zeigt, dass 93 % der befragten Organisationen KI für die Bedrohungserkennung und -reaktion priorisieren, was den Wert widerspiegelt, den Organisationen auf die Bedrohungserkennung legen. Diese doppelte Nutzung von KI erfordert einen maßvollen und verantwortungsvollen Ansatz bei der Implementierung.

Warum Mitarbeiterschulung weiterhin wichtig ist

Trotz fortschrittlicher KI-Tools bleibt menschliches Versagen die häufigste Schwachstelle in der Cybersecurity. Phishing ist der Hauptangriffsvektor für 65 % der Unternehmen. Angreifer nutzen KI, um überzeugendere Social-Engineering-Taktiken zu entwickeln, was das Risiko von benutzergetriggerten Sicherheitsvorfällen erhöht.

Ein Hauptgrund dafür ist, dass Organisationen oft Cybersicherheitsschulungen als einmalige Compliance-Aktivität betrachten. Diese Schulungen müssen ein fortlaufender Prozess sein, der sich im Laufe der Zeit weiterentwickelt. Mitarbeitende sollten über gängige Bedrohungen und KI-gestützte Risiken, wie Deepfake-Stimmenimitation oder Prompt-Injection-Angriffe, geschult werden.

Aufbau einer Kultur der Verantwortlichkeit

Die Grundlage einer Cybersecurity-Strategie ist nicht die Technologie, sondern die Transparenz. Organisationen müssen klar definieren, wer wofür verantwortlich ist, Governance-Strukturen etablieren und eine Sicherheitskultur fördern, die alle Bereiche umfasst.

Der Schlüssel liegt darin, der CISO oder einer gleichwertigen IT-Führungsrolle die Autorität und Sichtbarkeit zu geben. Es ist sinnvoll, cross-funktionale Cyber-Risiko-Ausschüsse zu bilden, die Vertreter aus IT, Compliance, Recht und Geschäftsbereichen umfassen.

Die Governance-Rahmenwerke für KI-Implementierungen müssen Kontrollen über Trainingsdaten, Modellbereitstellung, Zugriffsrechte und Echtzeitüberwachung beinhalten. Diese Rahmenwerke sollten sich parallel zu Vorschriften und aufkommenden Branchenstandards für ethischen KI-Einsatz weiterentwickeln.

Von der Bewusstseinsbildung zur Aktion

Die KI verändert die Cybersecurity-Landschaft. Angreifer sind schneller, skalierbarer und zunehmend automatisiert. Verteidiger verfügen über leistungsstarke Werkzeuge, aber allein diese Werkzeuge werden nicht ausreichen.

Organisationen müssen bessere Governance-Prozesse entwickeln, nicht nur leistungsfähigere Algorithmen. Dazu gehört, die Verantwortlichkeit für KI-Systeme zu klären und KI möglicherweise in die Cybersecurity-Strategie einzubeziehen.

Der Bericht sendet eine klare Botschaft: Die Technologie entwickelt sich rasant weiter, aber Menschen, Prozesse und Prioritäten hinken hinterher. Diese Lücke zu schließen, ist ein strategisches Gebot, besonders jetzt, da KI ins Spiel gekommen ist.

More Insights

G7-Gipfel verpasst Chance für globale KI-Governance

Die G7-Führungskräfte haben bei ihrem Treffen in Alberta, Kanada, versäumt, die wichtige Thematik der Regulierung von Künstlicher Intelligenz (KI) umfassend zu behandeln. Stattdessen lag der...

Afrika gestaltet eine souveräne Zukunft der KI-Governance

Afrikanische Führer beim Internet Governance Forum (IGF) 2025 forderten dringende Maßnahmen zur Schaffung souveräner und ethischer KI-Systeme, die auf lokale Bedürfnisse zugeschnitten sind. Über 1.000...

Top 10 Herausforderungen bei KI-Regulierungen und Compliance

Mit der Entwicklung von KI weltweit wird es zunehmend schwieriger, effektive Vorschriften zu implementieren. Die EU führt mit ihrem KI-Gesetz, das strenge Verpflichtungen für hochriskante...

Chinas Weg zur verkörperten KI

Der Wettbewerb zwischen den USA und China im Bereich Künstliche Intelligenz wird als die entscheidende technologische Rivalität unserer Zeit angesehen. Während die USA Vorteile in der...

Workday setzt Maßstäbe für verantwortungsbewusste KI mit dualen Governance-Akkreditierungen

Workday hat zwei Drittanbieter-Akkreditierungen für sein KI-Governance-Programm erhalten, einschließlich der ISO 42001. Diese Anerkennung bekräftigt das Engagement des Unternehmens für den Aufbau...

Ethische Standards für KI im Schatten des US-China-Technologiekonflikts

Inmitten der wachsenden Rivalität zwischen den USA und China drängt eine UN-Agentur auf globale Standards für die Ethik von KI. UNESCO hielt das dritte Globale Forum zur Ethik von Künstlicher...

EU AI-Gesetz: Sicherheit und Verantwortung im Fokus

Der EU AI Act stellt strenge Anforderungen an Organisationen, um die sichere Bereitstellung von KI und den Schutz sensibler Daten zu gewährleisten. Zscaler DSPM spielt eine entscheidende Rolle bei der...

Gesetzesentwurf zum Verbot von KI aus feindlichen Nationen

Eine parteiübergreifende Gesetzesvorlage zielt darauf ab, die Nutzung von KI aus China, Russland, Iran und Nordkorea in Bundesbehörden zu verbieten. Das Gesetz, bekannt als "No Adversarial AI Act"...