Risiko-Pyramide: KI-Konformitätsbewertung für Medizinprodukte

DIA Europa: Experten zufolge kann das Risiko-Pyramidenmodell bestimmen, ob ein Gerät eine Konformitätsbewertung gemäß dem AI-Gesetz erfordert

Medizinproduktehersteller sollten eine Risiko-Pyramide verwenden, um festzustellen, ob ihre Produkte als hochriskant eingestuft werden und eine Konformitätsbewertung durch benannte Stellen gemäß dem EU-Künstliche Intelligenz-Gesetz erfordern. Dies wurde auf der DIA Europa 2025 von Experten erörtert.

Einführung des AI-Gesetzes

Das AI-Gesetz trat am 1. August 2024 in Kraft und wird ab dem 2. August 2026 auf Produkte mit hochriskanten Anwendungen angewendet, einschließlich medizinischer Geräte, die in die Kategorie Class IIa oder höher eingeordnet sind. Es wird erwartet, dass die vollständige Umsetzung bis zum 31. Dezember 2030 erfolgt.

Das Risiko-Pyramidenmodell

Das AI-Gesetz führt ein risikobasiertes System zur Klassifizierung von KI-Anwendungen ein. Dieses System reicht von minimalriskanten Geräten an der Unterseite der Pyramide bis zu unakzeptablen Risiko-Systemen an der Spitze. Fischer betonte, dass Systeme, die schädliche KI-basierte Manipulation oder Täuschung verwenden, oder Systeme, die Sozialbewertungen nutzen, als inakzeptables Risiko eingestuft und verboten sind.

Klassifizierung von medizinischen Geräten

Medizinprodukte gelten als hochriskant, wenn sie KI-unterstützte Software verwenden, die zur Diagnose oder Erkennung von Anomalien eingesetzt wird und eine Bewertung durch eine benannte Stelle erfordert. Geräte mit begrenztem Risiko sind solche, die nicht zur Diagnose oder Erkennung von Anomalien verwendet werden und spezifische Transparenzpflichten gemäß dem AI-Gesetz unterliegen. Am unteren Ende der Pyramide befinden sich die minimalriskanten Geräte, die nicht reguliert sind und in den AI-Vorschriften nicht ausdrücklich erwähnt werden.

Empfehlungen für Hersteller

Hersteller sollten ein Positionspapier von Team-NB und der Deutschen Benannten Stellen Allianz für Medizinprodukte überprüfen, das als Fragebogen: Künstliche Intelligenz in Medizinprodukten bezeichnet wird.

Zusätzliche Anforderungen für hochriskante KI-Systeme

Zusätzlich zur Durchführung einer Konformitätsbewertung müssen Hersteller die Kennzeichnungsvorschriften einhalten, die die Angabe der Identität auf der Verpackung umfassen. Diese sollte den Namen des Herstellers, den eingetragenen Handelsnamen, Marken, Kontaktadresse und das CE-Zeichen enthalten.

Außerdem sollten Risikomanagement-Teams eingerichtet werden, um das KI-System zu bewerten. Hersteller müssen auch über technische Dokumentationen verfügen, einschließlich Aufzeichnungen über die Lebensdauer des KI-Systems.

Schlussfolgerung

Die Implementierung der KI-Vorschriften stellt in erster Linie eine administrative Übung dar, die darauf abzielt, die Dokumentation in Ordnung zu bringen. Es wird erwartet, dass eine neue Welle von Anwendungen, die fortschrittliche KI-Tools in medizinischen Geräten nutzen, sich bald entfalten wird, wobei der Fokus auf der Verwendung nicht-invasiver Technologien zur Diagnose von Krankheiten liegt.

More Insights

AI-Rüstungswettlauf und die Auswirkungen von Tarifen auf den EU-AI-Gesetz

Tarife können sowohl als Hindernis als auch als potenzieller Katalysator für den Fortschritt von KI und Automatisierung wirken. In Kombination mit dem EU-KI-Gesetz ergeben sich komplexe...

Europäische Kommission: Aktionsplan für KI-Souveränität

Die Europäische Kommission hat ihren AI Continent Action Plan veröffentlicht, der darauf abzielt, Europa als globalen Führer im Bereich der künstlichen Intelligenz zu etablieren. Der Plan umfasst eine...

Die AI-Herausforderung: Singapur zwischen Innovation und Regulierung

Singapur steht vor der Herausforderung, ein Gleichgewicht zwischen Innovation und Regulierung im Bereich der Künstlichen Intelligenz (KI) zu finden. Angesichts von Bedenken hinsichtlich Datenschutz...

Verantwortliche KI im Finanzsektor

Lexy Kassan diskutiert die entscheidenden Aspekte von verantwortungsbewusstem KI-Einsatz, insbesondere im Hinblick auf regulatorische Aktualisierungen wie den EU AI Act und dessen Auswirkungen auf die...

Menschzentrierte KI: Wegbereiter für ethische und verantwortungsvolle KI-Agenten

In der sich ständig weiterentwickelnden Landschaft der künstlichen Intelligenz gewinnt das Gespräch über human-zentrierte KI (HCAI) an erheblicher Bedeutung. Diese Paradigmenwechsel ist nicht nur eine...

Der EU AI Act: Grundlagen der Regulierung von Künstlicher Intelligenz

Der EU AI Act markiert den Beginn einer neuen Ära der Regulierung von künstlicher Intelligenz in Europa. Er schafft ein einheitliches rechtliches Regime für alle EU-Mitgliedstaaten und zielt darauf...

EU-Kommission präsentiert Aktionsplan für KI-Entwicklung

Am 9. April 2025 verabschiedete die Europäische Kommission eine Mitteilung über den sogenannten AI Continent Action Plan – ihre Strategie zur Gestaltung der nächsten Phase der KI-Entwicklung in...

Aktualisierte KI-Modellvertragsklauseln der EU veröffentlicht

Die Gemeinschaft der Praxis der EU für öffentliche Beschaffung von KI hat am 5. März 2025 eine aktualisierte Version ihrer nicht verbindlichen EU AI-Modellvertragsklauseln veröffentlicht. Diese...

EU AI Gesetz: Emotionale Erkennungssysteme am Arbeitsplatz unter der Lupe

Emotionserkennungs-KI bezieht sich auf KI, die biometrische Daten wie Gesichtsausdrücke und Stimme verwendet, um Emotionen zu identifizieren und zu analysieren. Der EU AI Act verbietet die Verwendung...