Regulatorische Herausforderungen für KI-gestützte MedTech im APAC-Raum

Regulatorische Landschaft für KI-gestützte MedTech in der APAC-Region

Die Regulierung von Künstlicher Intelligenz (KI) in der Asien-Pazifik-Region befindet sich noch in einem frühen Stadium. Sie wird größtenteils von bestehenden regulatorischen Rahmenbedingungen, die für andere Technologien und Produkte entwickelt wurden, bestimmt. Dies ist ein kontinuierlicher Prozess.

KI-Techniken wie Machine Learning (ML), Deep Learning und Natural Language Processing sind transformativ und werden immer häufiger eingesetzt. Allerdings bringen sie auch Herausforderungen und Bedenken mit sich, wie Voreingenommenheit und Diskriminierung, falsche Inhalte und Fehlinformationen, Datenschutz und Sicherheit, ethische Fragen sowie unbeabsichtigte Folgen.

Regulatorische Reaktionen in der APAC-Region

Wie reagieren die Regulierungsbehörden auf diese Herausforderungen? Im Folgenden wird ein Überblick über die Fortschritte in der Asien-Pazifik-Region, Europa und Nordamerika gegeben:

Asien-Pazifik

In der APAC-Region gibt es derzeit kein umfassendes Gesetz zur Regulierung von KI, doch das wird sich in den kommenden Monaten ändern.

  • China: Der Nationale Volkskongress hat den Staatsrat aufgefordert, ein übergreifendes Gesetz zu entwerfen. Das derzeitige Regulierungssystem besteht hauptsächlich aus administrativen Vorschriften und Standards.
  • Japan: Die KI-Regulierung erfolgt auf Ebene der einzelnen Sektoren in relevanten Branchen. Im Gesundheits- und Lebenswissenschaftsbereich gibt es Gesetze zur Regulierung von KI/ML-gestützten Werkzeugen, einschließlich des Next-Generation Medical Infrastructure Act von 2023, der die Nutzung von KI in Forschung und Entwicklung von KI-gestützten medizinischen Diagnosewerkzeugen erleichtert.
  • Australien: Die Absicht der Regierung ist es, einen prinzipienbasierten oder listenbasierten Ansatz zur Definition von „hochriskanter KI“ zu übernehmen, ähnlich wie in der EU.
  • Singapur: Es sind Rahmenbedingungen vorhanden, um die Bereitstellung von KI zu leiten und die verantwortungsvolle Nutzung von KI zu fördern. Dazu gehören wesentliche ethische und governance Prinzipien sowie standardisierte Tests zur Validierung der Einhaltung dieser Prinzipien.
  • Südkorea: Das Digital Medical Products Act (Januar 2025) bildet die Grundlage für einen regulatorischen Rahmen, der digitale Medizinprodukte regelt.

Europa

Das AI Act der Europäischen Union (2024) legt harmonisierte Regeln für KI fest und ist die erste umfassende KI-Gesetzgebung. Es gilt für alle KI-Systeme, die auf dem Markt bereitgestellt oder in der EU in Betrieb genommen werden, und klassifiziert sie in vier Risikostufen von unvertretbar hoch bis minimal. Medizinprodukte, die KI/ML-Funktionen integrieren, werden voraussichtlich als hochriskant eingestuft.

Das AI Act legt spezifische Verpflichtungen für hochriskante KI-Systeme fest, viele davon überschneiden sich mit bestehenden Verfahren, die unter der Medizinprodukteverordnung (MDR) und der Verordnung über In-vitro-Diagnostika (IVDR) erforderlich sind.

Die USA

Derzeit gibt es in den USA kein spezifisches Gesetz für KI, und die Food and Drug Administration (FDA) hat keinen etablierten regulatorischen Rahmen für KI-gestützte medizinische Produkte. Das bedeutet, dass, wenn ein KI/ML-gestütztes Produkt die Definition eines medizinischen Geräts erfüllt, die FDA es als Software als Medizinprodukt (SaMD) unter ihrem traditionellen regulatorischen Rahmen für medizinische Geräte regulieren wird.

Da die traditionelle Regulierungsstruktur der FDA nicht für adaptive KI/ML-Technologien konzipiert ist, hat sie einen flexiblen Ansatz zur Regulierung angenommen, um Innovationen zu fördern und gleichzeitig Sicherheit und Wirksamkeit zu gewährleisten. Wichtige Überlegungen umfassen die Anwendung von guten Praktiken im Maschinenlernen (GMLPs) in der Entwicklung, die Dokumentation von Änderungen, Transparenz und die Überwachung von Daten zur Leistung in der realen Welt.

Die FDA koordiniert sich mit Health Canada und der MHRA des Vereinigten Königreichs, um international harmonisierte GMLPs zu entwickeln, die auf einem vereinbarten Satz von Leitprinzipien basieren.

More Insights

Vertrauen und Risiko im Zeitalter der KI

Für Vermarkter verspricht KI einen Sprung in der Produktivität – aber nur, wenn sie durch eine klare Strategie und menschliche Aufsicht geleitet wird. Die Frage ist nicht, ob man KI nutzen sollte...

Cloud Governance für die KI-Zukunft

In der heutigen Zeit, in der KI-Innovationen sprießen, wird oft übersehen, dass veraltete Cloud-Governance-Modelle ein kritisches Risiko darstellen. Diese Modelle sind nicht für die Geschwindigkeit...

Leitfaden zur verantwortungsvollen KI-Governance für Unternehmensvorstände

Mit der zunehmenden Bedeutung von Künstlicher Intelligenz (KI) in modernen Unternehmen hat die Confederation of Indian Industry (CII) am Sonntag ein neues Handbuch veröffentlicht, um...

KI-gestützte DevSecOps: Automatisierung, Risiken und Compliance im Zero-Trust-Umfeld

Die rasante Einführung von KI-gestützter Automatisierung im DevSecOps kann sowohl Chancen als auch Herausforderungen mit sich bringen. Während KI die Effizienz steigert, birgt sie auch das Risiko...

Ein Zentrum für KI, Recht und Regulierung in Indien

In einer wegweisenden Entwicklung haben Cyril Amarchand Mangaldas, Cyril Shroff und die O.P. Jindal Global University die Gründung des Cyril Shroff Centre for AI, Law & Regulation am Jindal Global Law...

Darwin präsentiert kostenlosen Policy-Wizard zur Vereinfachung der KI-Governance für Behörden

Darwin hat den AI Policy Wizard eingeführt, ein kostenloses und interaktives Tool, das lokalen Regierungen und öffentlichen Einrichtungen hilft, praktische, konforme und maßgeschneiderte...

Vertrauen in KI durch verantwortungsvolle Governance stärken

Unklare Bedrohungen und unvorhersehbares Verhalten erschweren das globale Vertrauen in KI. Der Aufbau eines gemeinsamen Verständnisses durch anpassbare Governance hilft, konsistente Erwartungen für...

Kultur als Schlüssel zu vertrauenswürdiger KI

In diesem Bericht wird die Bedeutung einer inklusiven KI-Governance hervorgehoben, um sicherzustellen, dass auch übersehene Stimmen im Globalen Süden an der Diskussion und Entscheidungsfindung über...

Die EU AI-Verordnung und die Einhaltung des Urheberrechts

Ein zentrales Problem beim Training generativer KI-Modelle ist die Einhaltung der Urheberrechtsgesetze. Das EU-AI-Gesetz verstärkt die Notwendigkeit der Urheberrechtskonformität, insbesondere in Bezug...