Regulatorische Herausforderungen für KI-gestützte MedTech im APAC-Raum

Regulatorische Landschaft für KI-gestützte MedTech in der APAC-Region

Die Regulierung von Künstlicher Intelligenz (KI) in der Asien-Pazifik-Region befindet sich noch in einem frühen Stadium. Sie wird größtenteils von bestehenden regulatorischen Rahmenbedingungen, die für andere Technologien und Produkte entwickelt wurden, bestimmt. Dies ist ein kontinuierlicher Prozess.

KI-Techniken wie Machine Learning (ML), Deep Learning und Natural Language Processing sind transformativ und werden immer häufiger eingesetzt. Allerdings bringen sie auch Herausforderungen und Bedenken mit sich, wie Voreingenommenheit und Diskriminierung, falsche Inhalte und Fehlinformationen, Datenschutz und Sicherheit, ethische Fragen sowie unbeabsichtigte Folgen.

Regulatorische Reaktionen in der APAC-Region

Wie reagieren die Regulierungsbehörden auf diese Herausforderungen? Im Folgenden wird ein Überblick über die Fortschritte in der Asien-Pazifik-Region, Europa und Nordamerika gegeben:

Asien-Pazifik

In der APAC-Region gibt es derzeit kein umfassendes Gesetz zur Regulierung von KI, doch das wird sich in den kommenden Monaten ändern.

  • China: Der Nationale Volkskongress hat den Staatsrat aufgefordert, ein übergreifendes Gesetz zu entwerfen. Das derzeitige Regulierungssystem besteht hauptsächlich aus administrativen Vorschriften und Standards.
  • Japan: Die KI-Regulierung erfolgt auf Ebene der einzelnen Sektoren in relevanten Branchen. Im Gesundheits- und Lebenswissenschaftsbereich gibt es Gesetze zur Regulierung von KI/ML-gestützten Werkzeugen, einschließlich des Next-Generation Medical Infrastructure Act von 2023, der die Nutzung von KI in Forschung und Entwicklung von KI-gestützten medizinischen Diagnosewerkzeugen erleichtert.
  • Australien: Die Absicht der Regierung ist es, einen prinzipienbasierten oder listenbasierten Ansatz zur Definition von „hochriskanter KI“ zu übernehmen, ähnlich wie in der EU.
  • Singapur: Es sind Rahmenbedingungen vorhanden, um die Bereitstellung von KI zu leiten und die verantwortungsvolle Nutzung von KI zu fördern. Dazu gehören wesentliche ethische und governance Prinzipien sowie standardisierte Tests zur Validierung der Einhaltung dieser Prinzipien.
  • Südkorea: Das Digital Medical Products Act (Januar 2025) bildet die Grundlage für einen regulatorischen Rahmen, der digitale Medizinprodukte regelt.

Europa

Das AI Act der Europäischen Union (2024) legt harmonisierte Regeln für KI fest und ist die erste umfassende KI-Gesetzgebung. Es gilt für alle KI-Systeme, die auf dem Markt bereitgestellt oder in der EU in Betrieb genommen werden, und klassifiziert sie in vier Risikostufen von unvertretbar hoch bis minimal. Medizinprodukte, die KI/ML-Funktionen integrieren, werden voraussichtlich als hochriskant eingestuft.

Das AI Act legt spezifische Verpflichtungen für hochriskante KI-Systeme fest, viele davon überschneiden sich mit bestehenden Verfahren, die unter der Medizinprodukteverordnung (MDR) und der Verordnung über In-vitro-Diagnostika (IVDR) erforderlich sind.

Die USA

Derzeit gibt es in den USA kein spezifisches Gesetz für KI, und die Food and Drug Administration (FDA) hat keinen etablierten regulatorischen Rahmen für KI-gestützte medizinische Produkte. Das bedeutet, dass, wenn ein KI/ML-gestütztes Produkt die Definition eines medizinischen Geräts erfüllt, die FDA es als Software als Medizinprodukt (SaMD) unter ihrem traditionellen regulatorischen Rahmen für medizinische Geräte regulieren wird.

Da die traditionelle Regulierungsstruktur der FDA nicht für adaptive KI/ML-Technologien konzipiert ist, hat sie einen flexiblen Ansatz zur Regulierung angenommen, um Innovationen zu fördern und gleichzeitig Sicherheit und Wirksamkeit zu gewährleisten. Wichtige Überlegungen umfassen die Anwendung von guten Praktiken im Maschinenlernen (GMLPs) in der Entwicklung, die Dokumentation von Änderungen, Transparenz und die Überwachung von Daten zur Leistung in der realen Welt.

Die FDA koordiniert sich mit Health Canada und der MHRA des Vereinigten Königreichs, um international harmonisierte GMLPs zu entwickeln, die auf einem vereinbarten Satz von Leitprinzipien basieren.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...