AI-Cybersicherheitsanforderungen: Ein neuer Rechtsrahmen

Zoom auf die Cybersecurity-Anforderungen für KI-Systeme

Die Künstliche Intelligenz (KI) ist zu einem entscheidenden Faktor in der modernen Technologie geworden. Mit der Einführung des AI Act, dem weltweit ersten umfassenden Rechtsrahmen für die Regulierung von KI, der am 1. August 2024 in Kraft trat, sind spezifische Anforderungen an die Cybersecurity für hochriskante KI-Systeme festgelegt worden.

Cybersecurity-Anforderungen für hochriskante KI-Systeme

Laut Artikel 15 des AI Act müssen hochriskante KI-Systeme so gestaltet und entwickelt werden, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersecurity erreichen. Dies bedeutet, dass diese Systeme während ihres gesamten Lebenszyklus konsistent funktionieren müssen.

Die technischen Maßnahmen zur Gewährleistung der Cybersecurity sollten angemessen für die relevanten Umstände und Risiken sein. Zu den technischen Lösungen gehören unter anderem:

  • Datenvergiftung: Bedrohungsakteure manipulieren die Trainingsdaten.
  • Modellvergiftung: Manipulation der vortrainierten Komponenten, die im Training verwendet werden.
  • Modellvermeidung: Eingabedaten manipulieren, um das Modell zu täuschen.

Risikobewertungen für hochriskante KI-Systeme

Der AI Act verpflichtet Anbieter hochriskanter KI-Systeme zur Durchführung einer Risikobewertung, bevor das System auf den Markt gebracht oder in Betrieb genommen wird. Diese Bewertung muss die potenziellen Risiken für Gesundheit, Sicherheit und grundlegende Rechte identifizieren und analysieren.

Die Risikobewertung muss regelmäßig während des Lebenszyklus des KI-Systems aktualisiert werden, um sicherzustellen, dass alle Sicherheitsaspekte berücksichtigt werden.

Der Cyber Resilience Act (CRA)

Der Cyber Resilience Act (CRA) ergänzt die Cybersecurity-Anforderungen für KI-Systeme. Der CRA fordert von Produkten mit digitalen Elementen, wie verbundenen Geräten und IoT-Geräten, spezifische Sicherheitsmaßnahmen, um unbefugten Zugriff zu verhindern.

Warum Cybersecurity für alle KI-Systeme relevant ist

Obwohl der AI Act spezifische Anforderungen für hochriskante KI-Systeme festlegt, bedeutet dies nicht, dass andere KI-Systeme von Cybersecurity-Überlegungen ausgeschlossen sind. Alle KI-Systeme, die Daten verarbeiten oder mit Benutzern interagieren, können Cybersecurity-Bedrohungen ausgesetzt sein.

Best Practices für Anbieter von KI-Systemen

Anbieter von KI-Systemen sollten einen risikobasierten Ansatz verfolgen, der Sicherheitsmaßnahmen in den Design- und Entwicklungsprozess integriert. Regelmäßige Risikobewertungen und die Implementierung geeigneter technischer und organisatorischer Maßnahmen sind unerlässlich.

Die Einhaltung bestehender Gesetze und Vorschriften, wie der Allgemeinen Datenschutzverordnung (GDPR) und des Digital Operational Resilience Act (DORA), ist ebenfalls von großer Bedeutung.

Fazit

Cybersecurity ist ein entscheidendes Kriterium für hochriskante KI-Systeme unter dem AI Act und ein wichtiger Aspekt für alle KI-Systeme. Anbieter sollten Sicherheitsmaßnahmen von Anfang an in den Entwicklungsprozess integrieren, um Vertrauen, Reputation und Wettbewerbsfähigkeit zu gewährleisten.

More Insights

KI-Governance: Sicherheitsstrategien für die Zukunft

Künstliche Intelligenz (KI) hat einen breiten Einfluss auf Geschäftsbereiche, einschließlich der Cybersicherheit. Eine Studie der Cloud Security Alliance ergab, dass neun von zehn Organisationen...

Gesichtserkennungstechnologie: Regierung unter Beschuss wegen fehlender Regelungen

Die britische Regierung wurde für die Einführung von Gesichtserkennungstechnologie kritisiert, da sie dies ohne ein umfassendes rechtliches Rahmenwerk vorantreibt. Die Ada Lovelace Institute warnt vor...

Boom der Governance-Start-ups im Kampf um die Ehrlichkeit von KI

Die globale AI-Governance-Branche war im letzten Jahr 890 Millionen Dollar wert und wird bis 2029 auf 5,8 Milliarden Dollar anwachsen. Unternehmen stehen unter immensem Druck, vollständige...

10 Jahre Moratorium: Auswirkungen auf staatliche KI-Gesetze in den USA

Der US-Repräsentantenhaus hat ein Haushaltsgesetz verabschiedet, das ein zehnjähriges Moratorium für die Durchsetzung von staatlichen KI-Gesetzen beinhaltet. Tech Policy Press sucht Expertenmeinungen...

Die Rolle der Gerichte in der KI-Regulierung

Die Regulierung von Künstlicher Intelligenz (KI) ist weltweit ungleichmäßig. Während die Europäische Union umfassende Vorschriften erlassen hat, herrscht in den Vereinigten Staaten Widerstand gegen...

Verantwortliches KI-Management: Risiken effektiv angehen

Verantwortungsvolles KI-Management entwickelt sich von einem beeindruckenden Schlagwort zu einer kritischen Geschäftsnötigkeit, insbesondere in der Asien-Pazifik-Region. Während viele Unternehmen...

Rechtsführung in der KI: Dringlicher Handlungsbedarf

In diesem Interview mit Help Net Security erörtert Brooke Johnson, Chief Legal Counsel von Ivanti, die rechtlichen Verantwortlichkeiten in der KI-Governance. Sie betont die Notwendigkeit einer...

KI unter Kontrolle: Gesetzesänderungen und ihre Folgen

Der Gesetzentwurf, der kürzlich vom Repräsentantenhaus verabschiedet wurde, könnte staatliche Gesetze zur Regulierung von Künstlicher Intelligenz (KI) aufheben. Während einige Gesetzgeber besorgt...