Risiko-Pyramide: KI-Konformitätsbewertung für Medizinprodukte

DIA Europa: Experten zufolge kann das Risiko-Pyramidenmodell bestimmen, ob ein Gerät eine Konformitätsbewertung gemäß dem AI-Gesetz erfordert

Medizinproduktehersteller sollten eine Risiko-Pyramide verwenden, um festzustellen, ob ihre Produkte als hochriskant eingestuft werden und eine Konformitätsbewertung durch benannte Stellen gemäß dem EU-Künstliche Intelligenz-Gesetz erfordern. Dies wurde auf der DIA Europa 2025 von Experten erörtert.

Einführung des AI-Gesetzes

Das AI-Gesetz trat am 1. August 2024 in Kraft und wird ab dem 2. August 2026 auf Produkte mit hochriskanten Anwendungen angewendet, einschließlich medizinischer Geräte, die in die Kategorie Class IIa oder höher eingeordnet sind. Es wird erwartet, dass die vollständige Umsetzung bis zum 31. Dezember 2030 erfolgt.

Das Risiko-Pyramidenmodell

Das AI-Gesetz führt ein risikobasiertes System zur Klassifizierung von KI-Anwendungen ein. Dieses System reicht von minimalriskanten Geräten an der Unterseite der Pyramide bis zu unakzeptablen Risiko-Systemen an der Spitze. Fischer betonte, dass Systeme, die schädliche KI-basierte Manipulation oder Täuschung verwenden, oder Systeme, die Sozialbewertungen nutzen, als inakzeptables Risiko eingestuft und verboten sind.

Klassifizierung von medizinischen Geräten

Medizinprodukte gelten als hochriskant, wenn sie KI-unterstützte Software verwenden, die zur Diagnose oder Erkennung von Anomalien eingesetzt wird und eine Bewertung durch eine benannte Stelle erfordert. Geräte mit begrenztem Risiko sind solche, die nicht zur Diagnose oder Erkennung von Anomalien verwendet werden und spezifische Transparenzpflichten gemäß dem AI-Gesetz unterliegen. Am unteren Ende der Pyramide befinden sich die minimalriskanten Geräte, die nicht reguliert sind und in den AI-Vorschriften nicht ausdrücklich erwähnt werden.

Empfehlungen für Hersteller

Hersteller sollten ein Positionspapier von Team-NB und der Deutschen Benannten Stellen Allianz für Medizinprodukte überprüfen, das als Fragebogen: Künstliche Intelligenz in Medizinprodukten bezeichnet wird.

Zusätzliche Anforderungen für hochriskante KI-Systeme

Zusätzlich zur Durchführung einer Konformitätsbewertung müssen Hersteller die Kennzeichnungsvorschriften einhalten, die die Angabe der Identität auf der Verpackung umfassen. Diese sollte den Namen des Herstellers, den eingetragenen Handelsnamen, Marken, Kontaktadresse und das CE-Zeichen enthalten.

Außerdem sollten Risikomanagement-Teams eingerichtet werden, um das KI-System zu bewerten. Hersteller müssen auch über technische Dokumentationen verfügen, einschließlich Aufzeichnungen über die Lebensdauer des KI-Systems.

Schlussfolgerung

Die Implementierung der KI-Vorschriften stellt in erster Linie eine administrative Übung dar, die darauf abzielt, die Dokumentation in Ordnung zu bringen. Es wird erwartet, dass eine neue Welle von Anwendungen, die fortschrittliche KI-Tools in medizinischen Geräten nutzen, sich bald entfalten wird, wobei der Fokus auf der Verwendung nicht-invasiver Technologien zur Diagnose von Krankheiten liegt.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...