Regulatorische Rollen von KI-basierten Medizinprodukten im MDR und AI-Act

Einführung

KI-basierte Medizinprodukte (AIMD) unterliegen derzeit sowohl den Bestimmungen der EU-Medizinprodukteverordnung (MDR) als auch des KI‑Acts (AIA). Dieser Artikel erläutert, wie die Verantwortlichkeiten zwischen den Wirtschaftsteilnehmern verteilt sind und welche Änderungen durch den aktuellen Gesetzgebungsvorschlag der Europäischen Kommission zu erwarten sind.

Rollen der Wirtschaftsteilnehmer

Hersteller und Anbieter

Im Rahmen der MDR ist der Hersteller die natürliche oder juristische Person, die ein Medizinprodukt herstellt, vollständig überholt oder vermarktet. Der AIA definiert keinen Hersteller, sondern einen Anbieter, der ein KI‑System entwickelt oder in den Verkehr bringt. In der Praxis fallen diese beiden Rollen häufig zusammen, da das Unternehmen, das das Medizinprodukt produziert, meist auch das KI‑System bereitstellt.

Benutzer und Einsatzende

Die MDR verwendet den Begriff Benutzer für jede Person, die ein Medizinprodukt verwendet, beispielsweise Ärztinnen oder Patientinnen. Der AIA hingegen spricht von Einsatzenden, also natürlichen oder juristischen Personen, die die Nutzung eines KI‑Systems autorisieren und steuern. In großen Einrichtungen wie Krankenhäusern ist häufig die Einrichtung selbst der Einsatzende, während das medizinische Personal als Benutzer fungiert.

Aktuelle gesetzliche Rahmenbedingungen

Derzeit gelten beide Regelwerke parallel. AIMD werden sowohl nach der MDR als auch nach dem AIA klassifiziert, wobei die meisten als hochriskante KI‑Systeme eingestuft werden und damit strengen Anforderungen unterliegen. Die Verantwortlichkeiten der Hersteller/Anbieter und der Benutzer/Einsatzenden sind dabei nicht vollständig aufeinander abgestimmt.

Vorschlag der Europäischen Kommission

Am 16. Dezember 2025 wurde ein Gesetzesvorschlag veröffentlicht, der die Anwendung des AIA auf AIMD weitgehend abschaffen soll, mit Ausnahme einer Risikoklassifizierung. Die Verantwortung würde dann ausschließlich beim MDR‑Hersteller liegen. Es wird jedoch erwartet, dass künftige delegierte Rechtsakte der MDR AI‑spezifische Pflichten integrieren, etwa zu menschlicher Aufsicht, Daten‑Governance und Transparenz.

Implikationen und Risiken

Eine Konzentration der Verantwortung auf den MDR‑Hersteller könnte die regulatorische Komplexität reduzieren, birgt jedoch das Risiko, dass spezifische KI‑bezogene Anforderungen nicht ausreichend berücksichtigt werden. Gleichzeitig bleibt unklar, ob künftig neue Pflichten für die Einsatzenden entstehen, ähnlich denen des AIA.

Fazit

Die aktuelle Doppelregulierung von KI‑basierten Medizinprodukten führt zu überlappenden Rollen von Hersteller, Anbieter, Benutzer und Einsatzendem. Der jüngste Gesetzesvorschlag zielt darauf ab, diese Komplexität zu verringern, indem die Anwendung des AIA auf AIMD weitgehend aufgehoben wird. Dennoch bleiben offene Fragen hinsichtlich zukünftiger KI‑Spezifika im MDR‑Rahmen und möglicher neuer Pflichten für Organisationen, die KI‑Systeme einsetzen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...