AI-Cybersicherheitsanforderungen: Ein neuer Rechtsrahmen

Zoom auf die Cybersecurity-Anforderungen für KI-Systeme

Die Künstliche Intelligenz (KI) ist zu einem entscheidenden Faktor in der modernen Technologie geworden. Mit der Einführung des AI Act, dem weltweit ersten umfassenden Rechtsrahmen für die Regulierung von KI, der am 1. August 2024 in Kraft trat, sind spezifische Anforderungen an die Cybersecurity für hochriskante KI-Systeme festgelegt worden.

Cybersecurity-Anforderungen für hochriskante KI-Systeme

Laut Artikel 15 des AI Act müssen hochriskante KI-Systeme so gestaltet und entwickelt werden, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersecurity erreichen. Dies bedeutet, dass diese Systeme während ihres gesamten Lebenszyklus konsistent funktionieren müssen.

Die technischen Maßnahmen zur Gewährleistung der Cybersecurity sollten angemessen für die relevanten Umstände und Risiken sein. Zu den technischen Lösungen gehören unter anderem:

  • Datenvergiftung: Bedrohungsakteure manipulieren die Trainingsdaten.
  • Modellvergiftung: Manipulation der vortrainierten Komponenten, die im Training verwendet werden.
  • Modellvermeidung: Eingabedaten manipulieren, um das Modell zu täuschen.

Risikobewertungen für hochriskante KI-Systeme

Der AI Act verpflichtet Anbieter hochriskanter KI-Systeme zur Durchführung einer Risikobewertung, bevor das System auf den Markt gebracht oder in Betrieb genommen wird. Diese Bewertung muss die potenziellen Risiken für Gesundheit, Sicherheit und grundlegende Rechte identifizieren und analysieren.

Die Risikobewertung muss regelmäßig während des Lebenszyklus des KI-Systems aktualisiert werden, um sicherzustellen, dass alle Sicherheitsaspekte berücksichtigt werden.

Der Cyber Resilience Act (CRA)

Der Cyber Resilience Act (CRA) ergänzt die Cybersecurity-Anforderungen für KI-Systeme. Der CRA fordert von Produkten mit digitalen Elementen, wie verbundenen Geräten und IoT-Geräten, spezifische Sicherheitsmaßnahmen, um unbefugten Zugriff zu verhindern.

Warum Cybersecurity für alle KI-Systeme relevant ist

Obwohl der AI Act spezifische Anforderungen für hochriskante KI-Systeme festlegt, bedeutet dies nicht, dass andere KI-Systeme von Cybersecurity-Überlegungen ausgeschlossen sind. Alle KI-Systeme, die Daten verarbeiten oder mit Benutzern interagieren, können Cybersecurity-Bedrohungen ausgesetzt sein.

Best Practices für Anbieter von KI-Systemen

Anbieter von KI-Systemen sollten einen risikobasierten Ansatz verfolgen, der Sicherheitsmaßnahmen in den Design- und Entwicklungsprozess integriert. Regelmäßige Risikobewertungen und die Implementierung geeigneter technischer und organisatorischer Maßnahmen sind unerlässlich.

Die Einhaltung bestehender Gesetze und Vorschriften, wie der Allgemeinen Datenschutzverordnung (GDPR) und des Digital Operational Resilience Act (DORA), ist ebenfalls von großer Bedeutung.

Fazit

Cybersecurity ist ein entscheidendes Kriterium für hochriskante KI-Systeme unter dem AI Act und ein wichtiger Aspekt für alle KI-Systeme. Anbieter sollten Sicherheitsmaßnahmen von Anfang an in den Entwicklungsprozess integrieren, um Vertrauen, Reputation und Wettbewerbsfähigkeit zu gewährleisten.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...