Die Cybersecurity-Wette des EU AI-Gesetzes: Hacker benötigen keine Erlaubnis

Das Glücksspiel der Cybersicherheit im EU AI Act: Hacker benötigen keine Erlaubnis

Mit dem Fortschritt der KI-Entwicklung wird ihre Nutzung in der Cybersicherheit unvermeidlich – sie kann helfen, Cyberbedrohungen auf unvorhergesehene Weise zu erkennen und zu verhindern.

Doch es gibt auch die andere Seite: Kriminelle können KI nutzen, um ausgeklügeltere Angriffsstrategien zu entwickeln, die ihre illegalen Aktivitäten unterstützen. Und Kriminelle halten sich in der Regel nicht an Einschränkungen, wie diese Technologie genutzt werden kann.

Während die EU mit dem AI Act voranschreitet, fragen sich viele in der Branche: Wird diese Regulierung tatsächlich helfen, Europa sicherer zu machen? Oder wird sie zum Hindernis werden und neue Herausforderungen für Unternehmen schaffen, die künstliche Intelligenz nutzen möchten, um sich zu schützen?

Die Cybersicherheitsmaßnahmen des AI Act

Der EU AI Act ist der erste bedeutende regulatorische Rahmen, der klare Regeln für die Entwicklung und den Einsatz von KI festlegt. Unter seinen vielen Bestimmungen adressiert der AI Act direkt die Cybersicherheitsrisiken, indem er Maßnahmen einführt, um sicherzustellen, dass KI-Systeme sicher und verantwortungsbewusst eingesetzt werden.

Dies geschieht durch die Einführung einer risikobasierten Klassifizierung von KI-Anwendungen, wobei jede Klasse unterschiedliche Anforderungen an die Compliance hat. Natürlich unterliegen die hochriskanten Systeme – die diejenigen sind, die die Gesundheit und Sicherheit der Menschen negativ beeinflussen könnten – strengeren Sicherheits- und Transparenzanforderungen.

Zusätzlich müssen KI-Systeme regelmäßigen, obligatorischen Sicherheitstests unterzogen werden, um Schwachstellen zu identifizieren und die Chancen zu verringern, dass sie von Cyberkriminellen ausgenutzt werden. Gleichzeitig werden bessere Transparenz- und Berichtspflichten eingeführt. Diese Schritte sind solide erste Maßnahmen, um Struktur in diese Branche zu bringen und sie zu legitimieren.

Doch wenn es um Cybersicherheit geht, hat dieser Ansatz seine eigenen Komplikationen und Nachteile.

Die Anforderung, dass KI-Systeme so vielen Prüfungen und Zertifizierungen unterzogen werden müssen, bedeutet in der Praxis, dass die Veröffentlichung von Sicherheitsupdates erheblich verlangsamt wird. Wenn jede Änderung an KI-basierten Sicherheitsmaßnahmen einen langen Genehmigungsprozess benötigt, haben Angreifer ausreichend Zeit, bekannte Schwächen auszunutzen, während die betroffenen Unternehmen in Bürokratie gefangen sind und anfällig bleiben.

Die Transparenz ist ebenfalls ein zweischneidiges Schwert, je nachdem, wie man es betrachtet. Der AI Act verlangt von Entwicklern, technische Details zu ihren KI-Systemen gegenüber Regierungsstellen offenzulegen, um die Verantwortlichkeit zu gewährleisten. Ein gültiger Punkt, aber dies führt zu einer weiteren kritischen Verwundbarkeit: Wenn solche Informationen geleakt werden, könnten sie in die Hände von Kriminellen fallen, die effektiv eine Karte zur Ausnutzung von KI-Systemen erhalten. Dies verletzt eines der grundlegenden Prinzipien der Sicherheit: Sicherheit durch Obskurität.

Compliance als Quelle der Verwundbarkeit?

Es gibt eine weitere Risikolage, die wir genauer betrachten müssen: die Compliance-Orientierung.

Je strenger die Regulierung wird, desto mehr wird sich der Fokus der Sicherheitsteams darauf richten, Systeme zu erstellen, die gesetzliche Anforderungen erfüllen, anstatt sich auf reale Bedrohungen zu konzentrieren. Es besteht eine sehr hohe Wahrscheinlichkeit, dass dies zu KI-Systemen führt, die technisch konform, aber operationell brüchig sind.

Systeme, die für die Compliance gebaut werden, weisen zwangsläufig Muster auf, und sobald böswillige Akteure Kenntnis dieser Muster erlangen, wird es für sie viel einfacher, Exploits zu entwickeln. Das Endergebnis? Ähnlich gestaltete Systeme sind gleichermaßen schutzlos.

Darüber hinaus könnte die Anforderung des Gesetzes, dass menschliche Überprüfungen von KI-Entscheidungen erforderlich sind, einen möglichen Angriffsvektor durch soziale Ingenieurkunst schaffen. Angriffe können auf die menschlichen Prüfer abzielen, die im Laufe der Zeit möglicherweise beginnen, Entscheidungen, die von KI-Systemen getroffen werden, automatisch zu genehmigen. Dies ist insbesondere in Umgebungen mit hohem Volumen wie der Transaktionsüberwachung der Fall – wir sehen bereits Anzeichen dafür im Bankwesen, wo Müdigkeit bei der Aufsicht leicht zu Urteilsfehlern führen kann.

Ein weiteres Beispiel für Sicherheitsblockaden, die unbeabsichtigt durch den AI Act verursacht werden, wäre die biometrische Technologie. Während Beschränkungen bei der Gesichtserkennung dazu gedacht sind, die Privatsphäre der Bürger zu schützen, schränken sie auch die Fähigkeit der Strafverfolgungsbehörden ein, Kriminelle mit fortschrittlichen Überwachungsmethoden zu verfolgen und festzunehmen.

Diese Regelungen betreffen auch Dual-Use-Technologien – Systeme, die sowohl für zivile als auch für militärische Anwendungen entwickelt werden. Während militärische KI-Systeme formell vom Gesetz ausgeschlossen sind, ist das umgebende Ökosystem, das zu ihrer Entwicklung beiträgt, nun stark eingeschränkt. Dies bremst die Entwicklung von Next-Gen-Verteidigungswerkzeugen, die breite zivile Vorteile haben könnten.

Die Herausforderungen für Unternehmen

Auf der geschäftlichen Seite müssen wir akzeptieren, dass der AI Act Hürden bei der Einhaltung dieser Regeln aufwirft. Insbesondere für KMU kann dies eine große Herausforderung sein, da ihnen oft die Ressourcen großer Unternehmen fehlen, um Compliance zu gewährleisten.

Sicherheitstests, Compliance-Audits, rechtliche Beratungen – all dies erfordert erhebliche Investitionen. Dies könnte dazu führen, dass viele Unternehmen gezwungen sind, ihre KI-Nutzung zurückzufahren, was den Fortschritt in diesem Sektor behindert. Es ist sehr wahrscheinlich, dass sie die EU ganz verlassen und ihre Aktivitäten in anderen, freundlicheren Jurisdiktionen vorantreiben.

Cybersecurity-technisch wäre ein solcher Rückschritt sehr gefährlich. Ich glaube nicht, dass es gesagt werden muss, aber Kriminelle kümmern sich offensichtlich nicht um Compliance – sie sind frei, KI zu nutzen, wie sie wünschen, und werden dabei schnell legitime Unternehmen übertreffen.

Meiner Ansicht nach wird es nicht lange dauern, bis der Prozess der Entdeckung und Ausnutzung von Schwachstellen in wenigen Stunden, wenn nicht sogar in Minuten erledigt sein könnte. In der Zwischenzeit wären die verteidigenden Parteien damit beschäftigt, ihre Systeme tagelang oder wochenlang neu zu zertifizieren, bevor Sicherheitsupdates live gehen können.

Soziale Ingenieurkunst könnte ebenfalls gefährlicher werden als je zuvor. Mit der Macht der KI könnten Angreifer Mitarbeiterdaten aus öffentlichen Profilen extrahieren, um gezielte Phishing-Nachrichten zu erstellen oder sogar Echtzeit-Deepfake-Anrufe zu generieren, um die menschlichen Seiten von Sicherheitssystemen auszunutzen. Diese Szenarien sind keine hypothetischen – Deepfakes werden bereits zunehmend als Waffen eingesetzt.

Wie können Unternehmen die Richtlinien des AI Act integrieren – ohne Boden zu verlieren?

Wie wir sehen können, gibt es viele Herausforderungen. Und doch, trotz ihrer Unvollkommenheiten, ist der AI Act etwas, das Unternehmen nicht ignorieren können. Was kann also getan werden? Die Art und Weise, wie ich es sehe, muss die Compliance intelligenter, nicht härter werden. Ein proaktiver Ansatz wäre es, KI-Systeme von Anfang an mit den Vorschriften im Hinterkopf zu entwickeln, anstatt sie später nachzurüsten.

Das beinhaltet die Nutzung von KI-basierten Werkzeugen zur Automatisierung der Compliance-Überwachung und die regelmäßige Zusammenarbeit mit Regulierungsbehörden, um informiert zu bleiben. Es macht auch Sinn, an branchenweiten Veranstaltungen teilzunehmen und bewährte Praktiken sowie aufkommende Trends in der Cybersicherheit und Compliance im Allgemeinen zu teilen.

Letztendlich zielt der AI Act darauf ab, Ordnung und Verantwortung in die KI-Entwicklung zu bringen. Aber wenn es um Cybersicherheit geht, führt er auch zu ernsthaften Reibungen und Risiken. Wenn das Ziel darin besteht, Europa sicher zu halten, dann muss sich die Regulierung genauso schnell weiterentwickeln wie die Technologie, die sie regieren möchte.

Denn im Moment spielen die Verteidiger nur Aufholen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...