AI-Cybersicherheitsanforderungen: Ein neuer Rechtsrahmen

Zoom auf die Cybersecurity-Anforderungen für KI-Systeme

Die Künstliche Intelligenz (KI) ist zu einem entscheidenden Faktor in der modernen Technologie geworden. Mit der Einführung des AI Act, dem weltweit ersten umfassenden Rechtsrahmen für die Regulierung von KI, der am 1. August 2024 in Kraft trat, sind spezifische Anforderungen an die Cybersecurity für hochriskante KI-Systeme festgelegt worden.

Cybersecurity-Anforderungen für hochriskante KI-Systeme

Laut Artikel 15 des AI Act müssen hochriskante KI-Systeme so gestaltet und entwickelt werden, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersecurity erreichen. Dies bedeutet, dass diese Systeme während ihres gesamten Lebenszyklus konsistent funktionieren müssen.

Die technischen Maßnahmen zur Gewährleistung der Cybersecurity sollten angemessen für die relevanten Umstände und Risiken sein. Zu den technischen Lösungen gehören unter anderem:

  • Datenvergiftung: Bedrohungsakteure manipulieren die Trainingsdaten.
  • Modellvergiftung: Manipulation der vortrainierten Komponenten, die im Training verwendet werden.
  • Modellvermeidung: Eingabedaten manipulieren, um das Modell zu täuschen.

Risikobewertungen für hochriskante KI-Systeme

Der AI Act verpflichtet Anbieter hochriskanter KI-Systeme zur Durchführung einer Risikobewertung, bevor das System auf den Markt gebracht oder in Betrieb genommen wird. Diese Bewertung muss die potenziellen Risiken für Gesundheit, Sicherheit und grundlegende Rechte identifizieren und analysieren.

Die Risikobewertung muss regelmäßig während des Lebenszyklus des KI-Systems aktualisiert werden, um sicherzustellen, dass alle Sicherheitsaspekte berücksichtigt werden.

Der Cyber Resilience Act (CRA)

Der Cyber Resilience Act (CRA) ergänzt die Cybersecurity-Anforderungen für KI-Systeme. Der CRA fordert von Produkten mit digitalen Elementen, wie verbundenen Geräten und IoT-Geräten, spezifische Sicherheitsmaßnahmen, um unbefugten Zugriff zu verhindern.

Warum Cybersecurity für alle KI-Systeme relevant ist

Obwohl der AI Act spezifische Anforderungen für hochriskante KI-Systeme festlegt, bedeutet dies nicht, dass andere KI-Systeme von Cybersecurity-Überlegungen ausgeschlossen sind. Alle KI-Systeme, die Daten verarbeiten oder mit Benutzern interagieren, können Cybersecurity-Bedrohungen ausgesetzt sein.

Best Practices für Anbieter von KI-Systemen

Anbieter von KI-Systemen sollten einen risikobasierten Ansatz verfolgen, der Sicherheitsmaßnahmen in den Design- und Entwicklungsprozess integriert. Regelmäßige Risikobewertungen und die Implementierung geeigneter technischer und organisatorischer Maßnahmen sind unerlässlich.

Die Einhaltung bestehender Gesetze und Vorschriften, wie der Allgemeinen Datenschutzverordnung (GDPR) und des Digital Operational Resilience Act (DORA), ist ebenfalls von großer Bedeutung.

Fazit

Cybersecurity ist ein entscheidendes Kriterium für hochriskante KI-Systeme unter dem AI Act und ein wichtiger Aspekt für alle KI-Systeme. Anbieter sollten Sicherheitsmaßnahmen von Anfang an in den Entwicklungsprozess integrieren, um Vertrauen, Reputation und Wettbewerbsfähigkeit zu gewährleisten.

More Insights

CII fordert klare Regeln für den Einsatz von KI im Finanzsektor

Der Chartered Insurance Institute (CII) hat klare Verantwortungsrahmen und eine sektorweite Schulungsstrategie gefordert, um den Einsatz von Künstlicher Intelligenz (KI) im Finanzdienstleistungssektor...

Künstliche Intelligenz in New York: Wichtige Gesetzesänderungen für Arbeitgeber im Jahr 2025

Im ersten Halbjahr 2025 hat New York, ähnlich wie andere Bundesstaaten, Gesetze zur Regulierung von Künstlicher Intelligenz (KI) auf Ebene der Bundesstaaten eingeführt. Insbesondere konzentriert sich...

Risikomanagement für Künstliche Intelligenz: Strategien zur Minimierung von Gefahren

Die Risiken von KI-Systemen können durch verschiedene Faktoren wie Datenqualität, Modellarchitektur und betriebliche Herausforderungen beeinflusst werden. Ein effektives Risikomanagement ist...

Wichtige Erkenntnisse zum EU-Gesetz über Künstliche Intelligenz

Die Europäische Union hat das Gesetz über künstliche Intelligenz (AI Act) eingeführt, das darauf abzielt, die Risiken und Möglichkeiten von KI-Technologien in Europa zu verwalten. Dieses Gesetz ist...

Koreas KI-Grundgesetz: Ein neuer Rahmen für künstliche Intelligenz

Südkorea hat sich mit dem Inkrafttreten des Gesetzes über die Entwicklung von Künstlicher Intelligenz und die Schaffung von Vertrauen, bekannt als AI Basic Act, an die Spitze der KI-Regulierung in...

EU AI-Gesetz und DORA: Finanzielle Risiken und Compliance neu definiert

Die EU AI Act und DORA stellen neue Anforderungen an Finanzinstitute, indem sie Transparenz und Resilienz in der Nutzung von KI-Systemen fordern. Unternehmen müssen die finanziellen Risiken...

KI-Regulierung im transatlantischen Kontext

Künstliche Intelligenz (KI) hat sich zu einer der bedeutendsten technologischen Kräfte der Gegenwart entwickelt und hat das Potenzial, Volkswirtschaften, Gesellschaften und die globale Governance...

EU-Kommission plant Maßnahmen zur Förderung von KI-Gigafabriken

Die EU-Kommission möchte die Hürden für den Einsatz von Künstlicher Intelligenz (KI) abbauen und plant, die Infrastruktur für Datenzentren in Europa erheblich auszubauen. Dies geschieht im Rahmen des...