Sicherheitsrahmen für KI: Vertrauen in maschinelles Lernen gewährleisten

AI-Sicherheitsrahmen – Vertrauen in maschinelles Lernen gewährleisten

Mit der Transformation von Branchen durch künstliche Intelligenz und der Erweiterung menschlicher Fähigkeiten ist die Notwendigkeit robuster AI-Sicherheitsrahmen von größter Bedeutung geworden.

Aktuelle Entwicklungen in den AI-Sicherheitsstandards zielen darauf ab, Risiken, die mit maschinellen Lernsystemen verbunden sind, zu mindern und gleichzeitig Innovationen zu fördern und das öffentliche Vertrauen zu stärken.

Weltweit navigieren Organisationen durch ein komplexes Rahmenwerk, das darauf ausgelegt ist, sicherzustellen, dass AI-Systeme sicher, ethisch und vertrauenswürdig sind.

Das wachsende Ökosystem der AI-Sicherheitsstandards

Das National Institute of Standards and Technology (NIST) hat sich in diesem Bereich als führend etabliert mit seinem AI Risk Management Framework (AI RMF), das im Januar 2023 veröffentlicht wurde.

Das Rahmenwerk bietet Organisationen einen systematischen Ansatz zur Identifizierung, Bewertung und Minderung von Risiken über den gesamten Lebenszyklus eines AI-Systems.

„Im Kern basiert das NIST AI RMF auf vier Funktionen: Govern, Map, Measure und Manage. Diese Funktionen sind keine diskreten Schritte, sondern miteinander verbundene Prozesse, die iterativ über den Lebenszyklus eines AI-Systems implementiert werden sollen“, erklärt Palo Alto Networks in seiner Rahmenwerkanalyse.

Gleichzeitig hat die International Organization for Standardization (ISO) die ISO/IEC 42001:2023 entwickelt, die einen umfassenden Rahmen für das Management von künstlichen Intelligenzsystemen innerhalb von Organisationen festlegt.

Der Standard betont „die Bedeutung einer ethischen, sicheren und transparenten Entwicklung und Bereitstellung von AI“ und bietet detaillierte Leitlinien zum AI-Management, zur Risikobewertung und zur Behandlung von Datenschutzbedenken.

Regulatorisches Umfeld und Compliance-Anforderungen

Die Europäische Union hat mit ihrem AI-Gesetz einen bedeutenden Schritt unternommen, das am 2. August 2024 in Kraft trat, obwohl die meisten Verpflichtungen erst ab August 2026 gelten.

Das Gesetz legt Cybersecurity-Anforderungen für hochriskante AI-Systeme fest, mit erheblichen finanziellen Strafen für die Nichteinhaltung.

„Die Verpflichtung zur Einhaltung dieser Anforderungen liegt bei den Unternehmen, die AI-Systeme entwickeln, sowie bei denen, die sie vermarkten oder implementieren“, merkt Tarlogic Security in ihrer Analyse des Gesetzes an.

Für Organisationen, die ihre Einhaltung dieser aufkommenden Vorschriften nachweisen möchten, bietet Microsoft Purview jetzt Vorlagen für AI-Compliance-Bewertungen an, die das EU AI-Gesetz, das NIST AI RMF und die ISO/IEC 42001 abdecken, um Organisationen zu helfen, „die Einhaltung von AI-Vorschriften und -Standards zu bewerten und zu stärken“.

Branchengeführte Initiativen zur Sicherung von AI-Systemen

Über Regierungs- und Regulierungsstellen hinaus entwickeln Branchenorganisationen spezialisierte Rahmenwerke.

Die Cloud Security Alliance (CSA) wird im Juni 2025 ihre AI Controls Matrix (AICM) veröffentlichen. Diese Matrix ist darauf ausgelegt, Organisationen dabei zu helfen, „AI-Technologien sicher zu entwickeln, umzusetzen und zu nutzen.“

Die erste Überarbeitung wird 242 Kontrollen über 18 Sicherheitsbereiche enthalten, die alles von der Modellsicherheit bis zur Governance und Compliance abdecken.

Das Open Web Application Security Project (OWASP) hat die Top 10 für LLM-Anwendungen erstellt, die kritische Schwachstellen in großen Sprachmodellen ansprechen.

Diese Liste, die von fast 500 Experten aus AI-Unternehmen, Sicherheitsfirmen, Cloud-Anbietern und der Wissenschaft entwickelt wurde, identifiziert wichtige Sicherheitsrisiken, einschließlich Prompt Injection, unsachgemäße Ausgabehandhabung, Vergiftung von Trainingsdaten und Modellausfall.

Die Implementierung dieser Rahmenwerke erfordert von Organisationen, robuste Governance-Strukturen und Sicherheitskontrollen zu etablieren.

IBM empfiehlt einen umfassenden Ansatz zur AI-Governance, einschließlich „Aufsichtsmechanismen, die Risiken wie Vorurteile, Eingriffe in die Privatsphäre und Missbrauch ansprechen, während Innovationen gefördert und Vertrauen aufgebaut werden.“

Für die praktische Sicherheitsimplementierung bietet das Adversarial Robustness Toolbox (ART) Werkzeuge, die „Entwickler und Forscher in die Lage versetzen, maschinelle Lernmodelle und -anwendungen gegen feindliche Bedrohungen zu bewerten, zu verteidigen und zu verifizieren.“

Das Toolkit unterstützt alle gängigen maschinellen Lernrahmen und bietet 39 Angriffs- und 29 Verteidigungsmodule.

Ausblick: Entwicklung von Standards für sich entwickelnde Technologien

Während AI-Technologien weiterhin Fortschritte machen, müssen sich die Sicherheitsrahmen entsprechend weiterentwickeln.

Die CSA erkennt diese Herausforderung an und merkt an, dass „es keine leichte Aufgabe ist, mit den häufigen Veränderungen in der AI-Branche Schritt zu halten“ und dass ihre AI Controls Matrix „definitiv regelmäßigen Überarbeitungen unterzogen werden muss, um aktuell zu bleiben“.

Die Cybersecurity and Infrastructure Security Agency (CISA) hat kürzlich Richtlinien veröffentlicht, die mit dem NIST AI RMF in Einklang stehen, um AI-gesteuerte Cyberbedrohungen zu bekämpfen.

Diese Richtlinien folgen einer „sicheren durch Design“-Philosophie und betonen die Notwendigkeit für Organisationen, „einen detaillierten Plan für das Cybersecurity-Risikomanagement zu erstellen, Transparenz in der Nutzung von AI-Systemen zu schaffen und AI-Bedrohungen, -Vorfälle und -Fehler in Informationsaustauschmechanismen zu integrieren.“

Während Organisationen dieses komplexe Umfeld navigieren, ist eines klar: Angemessene AI-Sicherheit erfordert einen multidisziplinären Ansatz, der Stakeholder aus Technologie, Recht, Ethik und Wirtschaft einbezieht.

Da AI-Systeme immer ausgeklügelter und in kritische Aspekte der Gesellschaft integriert werden, werden diese Rahmenwerke eine entscheidende Rolle bei der Gestaltung der Zukunft des maschinellen Lernens spielen und sicherstellen, dass es sowohl innovativ als auch vertrauenswürdig bleibt.

More Insights

KI-Governance: Sicherheitsstrategien für die Zukunft

Künstliche Intelligenz (KI) hat einen breiten Einfluss auf Geschäftsbereiche, einschließlich der Cybersicherheit. Eine Studie der Cloud Security Alliance ergab, dass neun von zehn Organisationen...

Gesichtserkennungstechnologie: Regierung unter Beschuss wegen fehlender Regelungen

Die britische Regierung wurde für die Einführung von Gesichtserkennungstechnologie kritisiert, da sie dies ohne ein umfassendes rechtliches Rahmenwerk vorantreibt. Die Ada Lovelace Institute warnt vor...

Boom der Governance-Start-ups im Kampf um die Ehrlichkeit von KI

Die globale AI-Governance-Branche war im letzten Jahr 890 Millionen Dollar wert und wird bis 2029 auf 5,8 Milliarden Dollar anwachsen. Unternehmen stehen unter immensem Druck, vollständige...

10 Jahre Moratorium: Auswirkungen auf staatliche KI-Gesetze in den USA

Der US-Repräsentantenhaus hat ein Haushaltsgesetz verabschiedet, das ein zehnjähriges Moratorium für die Durchsetzung von staatlichen KI-Gesetzen beinhaltet. Tech Policy Press sucht Expertenmeinungen...

Die Rolle der Gerichte in der KI-Regulierung

Die Regulierung von Künstlicher Intelligenz (KI) ist weltweit ungleichmäßig. Während die Europäische Union umfassende Vorschriften erlassen hat, herrscht in den Vereinigten Staaten Widerstand gegen...

Verantwortliches KI-Management: Risiken effektiv angehen

Verantwortungsvolles KI-Management entwickelt sich von einem beeindruckenden Schlagwort zu einer kritischen Geschäftsnötigkeit, insbesondere in der Asien-Pazifik-Region. Während viele Unternehmen...

Rechtsführung in der KI: Dringlicher Handlungsbedarf

In diesem Interview mit Help Net Security erörtert Brooke Johnson, Chief Legal Counsel von Ivanti, die rechtlichen Verantwortlichkeiten in der KI-Governance. Sie betont die Notwendigkeit einer...

KI unter Kontrolle: Gesetzesänderungen und ihre Folgen

Der Gesetzentwurf, der kürzlich vom Repräsentantenhaus verabschiedet wurde, könnte staatliche Gesetze zur Regulierung von Künstlicher Intelligenz (KI) aufheben. Während einige Gesetzgeber besorgt...