Das Glücksspiel der Cybersicherheit im EU AI Act: Hacker benötigen keine Erlaubnis
Mit dem Fortschritt der KI-Entwicklung wird ihre Nutzung in der Cybersicherheit unvermeidlich – sie kann helfen, Cyberbedrohungen auf unvorhergesehene Weise zu erkennen und zu verhindern.
Doch es gibt auch die andere Seite: Kriminelle können KI nutzen, um ausgeklügeltere Angriffsstrategien zu entwickeln, die ihre illegalen Aktivitäten unterstützen. Und Kriminelle halten sich in der Regel nicht an Einschränkungen, wie diese Technologie genutzt werden kann.
Während die EU mit dem AI Act voranschreitet, fragen sich viele in der Branche: Wird diese Regulierung tatsächlich helfen, Europa sicherer zu machen? Oder wird sie zum Hindernis werden und neue Herausforderungen für Unternehmen schaffen, die künstliche Intelligenz nutzen möchten, um sich zu schützen?
Die Cybersicherheitsmaßnahmen des AI Act
Der EU AI Act ist der erste bedeutende regulatorische Rahmen, der klare Regeln für die Entwicklung und den Einsatz von KI festlegt. Unter seinen vielen Bestimmungen adressiert der AI Act direkt die Cybersicherheitsrisiken, indem er Maßnahmen einführt, um sicherzustellen, dass KI-Systeme sicher und verantwortungsbewusst eingesetzt werden.
Dies geschieht durch die Einführung einer risikobasierten Klassifizierung von KI-Anwendungen, wobei jede Klasse unterschiedliche Anforderungen an die Compliance hat. Natürlich unterliegen die hochriskanten Systeme – die diejenigen sind, die die Gesundheit und Sicherheit der Menschen negativ beeinflussen könnten – strengeren Sicherheits- und Transparenzanforderungen.
Zusätzlich müssen KI-Systeme regelmäßigen, obligatorischen Sicherheitstests unterzogen werden, um Schwachstellen zu identifizieren und die Chancen zu verringern, dass sie von Cyberkriminellen ausgenutzt werden. Gleichzeitig werden bessere Transparenz- und Berichtspflichten eingeführt. Diese Schritte sind solide erste Maßnahmen, um Struktur in diese Branche zu bringen und sie zu legitimieren.
Doch wenn es um Cybersicherheit geht, hat dieser Ansatz seine eigenen Komplikationen und Nachteile.
Die Anforderung, dass KI-Systeme so vielen Prüfungen und Zertifizierungen unterzogen werden müssen, bedeutet in der Praxis, dass die Veröffentlichung von Sicherheitsupdates erheblich verlangsamt wird. Wenn jede Änderung an KI-basierten Sicherheitsmaßnahmen einen langen Genehmigungsprozess benötigt, haben Angreifer ausreichend Zeit, bekannte Schwächen auszunutzen, während die betroffenen Unternehmen in Bürokratie gefangen sind und anfällig bleiben.
Die Transparenz ist ebenfalls ein zweischneidiges Schwert, je nachdem, wie man es betrachtet. Der AI Act verlangt von Entwicklern, technische Details zu ihren KI-Systemen gegenüber Regierungsstellen offenzulegen, um die Verantwortlichkeit zu gewährleisten. Ein gültiger Punkt, aber dies führt zu einer weiteren kritischen Verwundbarkeit: Wenn solche Informationen geleakt werden, könnten sie in die Hände von Kriminellen fallen, die effektiv eine Karte zur Ausnutzung von KI-Systemen erhalten. Dies verletzt eines der grundlegenden Prinzipien der Sicherheit: Sicherheit durch Obskurität.
Compliance als Quelle der Verwundbarkeit?
Es gibt eine weitere Risikolage, die wir genauer betrachten müssen: die Compliance-Orientierung.
Je strenger die Regulierung wird, desto mehr wird sich der Fokus der Sicherheitsteams darauf richten, Systeme zu erstellen, die gesetzliche Anforderungen erfüllen, anstatt sich auf reale Bedrohungen zu konzentrieren. Es besteht eine sehr hohe Wahrscheinlichkeit, dass dies zu KI-Systemen führt, die technisch konform, aber operationell brüchig sind.
Systeme, die für die Compliance gebaut werden, weisen zwangsläufig Muster auf, und sobald böswillige Akteure Kenntnis dieser Muster erlangen, wird es für sie viel einfacher, Exploits zu entwickeln. Das Endergebnis? Ähnlich gestaltete Systeme sind gleichermaßen schutzlos.
Darüber hinaus könnte die Anforderung des Gesetzes, dass menschliche Überprüfungen von KI-Entscheidungen erforderlich sind, einen möglichen Angriffsvektor durch soziale Ingenieurkunst schaffen. Angriffe können auf die menschlichen Prüfer abzielen, die im Laufe der Zeit möglicherweise beginnen, Entscheidungen, die von KI-Systemen getroffen werden, automatisch zu genehmigen. Dies ist insbesondere in Umgebungen mit hohem Volumen wie der Transaktionsüberwachung der Fall – wir sehen bereits Anzeichen dafür im Bankwesen, wo Müdigkeit bei der Aufsicht leicht zu Urteilsfehlern führen kann.
Ein weiteres Beispiel für Sicherheitsblockaden, die unbeabsichtigt durch den AI Act verursacht werden, wäre die biometrische Technologie. Während Beschränkungen bei der Gesichtserkennung dazu gedacht sind, die Privatsphäre der Bürger zu schützen, schränken sie auch die Fähigkeit der Strafverfolgungsbehörden ein, Kriminelle mit fortschrittlichen Überwachungsmethoden zu verfolgen und festzunehmen.
Diese Regelungen betreffen auch Dual-Use-Technologien – Systeme, die sowohl für zivile als auch für militärische Anwendungen entwickelt werden. Während militärische KI-Systeme formell vom Gesetz ausgeschlossen sind, ist das umgebende Ökosystem, das zu ihrer Entwicklung beiträgt, nun stark eingeschränkt. Dies bremst die Entwicklung von Next-Gen-Verteidigungswerkzeugen, die breite zivile Vorteile haben könnten.
Die Herausforderungen für Unternehmen
Auf der geschäftlichen Seite müssen wir akzeptieren, dass der AI Act Hürden bei der Einhaltung dieser Regeln aufwirft. Insbesondere für KMU kann dies eine große Herausforderung sein, da ihnen oft die Ressourcen großer Unternehmen fehlen, um Compliance zu gewährleisten.
Sicherheitstests, Compliance-Audits, rechtliche Beratungen – all dies erfordert erhebliche Investitionen. Dies könnte dazu führen, dass viele Unternehmen gezwungen sind, ihre KI-Nutzung zurückzufahren, was den Fortschritt in diesem Sektor behindert. Es ist sehr wahrscheinlich, dass sie die EU ganz verlassen und ihre Aktivitäten in anderen, freundlicheren Jurisdiktionen vorantreiben.
Cybersecurity-technisch wäre ein solcher Rückschritt sehr gefährlich. Ich glaube nicht, dass es gesagt werden muss, aber Kriminelle kümmern sich offensichtlich nicht um Compliance – sie sind frei, KI zu nutzen, wie sie wünschen, und werden dabei schnell legitime Unternehmen übertreffen.
Meiner Ansicht nach wird es nicht lange dauern, bis der Prozess der Entdeckung und Ausnutzung von Schwachstellen in wenigen Stunden, wenn nicht sogar in Minuten erledigt sein könnte. In der Zwischenzeit wären die verteidigenden Parteien damit beschäftigt, ihre Systeme tagelang oder wochenlang neu zu zertifizieren, bevor Sicherheitsupdates live gehen können.
Soziale Ingenieurkunst könnte ebenfalls gefährlicher werden als je zuvor. Mit der Macht der KI könnten Angreifer Mitarbeiterdaten aus öffentlichen Profilen extrahieren, um gezielte Phishing-Nachrichten zu erstellen oder sogar Echtzeit-Deepfake-Anrufe zu generieren, um die menschlichen Seiten von Sicherheitssystemen auszunutzen. Diese Szenarien sind keine hypothetischen – Deepfakes werden bereits zunehmend als Waffen eingesetzt.
Wie können Unternehmen die Richtlinien des AI Act integrieren – ohne Boden zu verlieren?
Wie wir sehen können, gibt es viele Herausforderungen. Und doch, trotz ihrer Unvollkommenheiten, ist der AI Act etwas, das Unternehmen nicht ignorieren können. Was kann also getan werden? Die Art und Weise, wie ich es sehe, muss die Compliance intelligenter, nicht härter werden. Ein proaktiver Ansatz wäre es, KI-Systeme von Anfang an mit den Vorschriften im Hinterkopf zu entwickeln, anstatt sie später nachzurüsten.
Das beinhaltet die Nutzung von KI-basierten Werkzeugen zur Automatisierung der Compliance-Überwachung und die regelmäßige Zusammenarbeit mit Regulierungsbehörden, um informiert zu bleiben. Es macht auch Sinn, an branchenweiten Veranstaltungen teilzunehmen und bewährte Praktiken sowie aufkommende Trends in der Cybersicherheit und Compliance im Allgemeinen zu teilen.
Letztendlich zielt der AI Act darauf ab, Ordnung und Verantwortung in die KI-Entwicklung zu bringen. Aber wenn es um Cybersicherheit geht, führt er auch zu ernsthaften Reibungen und Risiken. Wenn das Ziel darin besteht, Europa sicher zu halten, dann muss sich die Regulierung genauso schnell weiterentwickeln wie die Technologie, die sie regieren möchte.
Denn im Moment spielen die Verteidiger nur Aufholen.