Regulierung klinischer Studien mit KI: Herausforderungen und Anforderungen

Die Regulierung klinischer Studien, in denen KI eingesetzt wird

Der Einsatz von Künstlicher Intelligenz (KI) in klinischen Studien bringt neue Herausforderungen und Anforderungen mit sich. Unternehmen, die pharmazeutische oder biotechnologische Produkte entwickeln und KI in irgendeiner Form in ihren klinischen Studien einsetzen, sei es bei der Gestaltung der Studie, der Patientenrekrutierung, der verwendeten Geräte oder der Datenanalyse, müssen sich der regulatorischen Anforderungen bewusst sein. Die Folgen solcher Anwendungen könnten für die Regulierungsbehörden von Interesse sein, sowohl in Bezug auf die Studie selbst als auch auf die beteiligten Probanden und die Ergebnisse, die für Genehmigungsanträge verwendet werden.

Obwohl das KI-Gesetz für bestimmte Forschungsanwendungen von KI nicht anwendbar ist, bieten diese Ausnahmen wenig Trost für den Einsatz von KI in klinischen Studien, wo eine Vielzahl von Vorschriften und Richtlinien potenziell Anwendung finden.

Daten, Daten überall – kann irgendetwas davon verwendet werden?

KI kann ein erstaunliches Werkzeug zum Sortieren und Analysieren klinischer Daten und sogar von Patienten sein. Der Aufbau klinischer Studien und die Erstellung sowie Analyse der daraus resultierenden Daten sind entscheidende Bestandteile der Produktentwicklung und fließen in den Genehmigungsprozess für pharmazeutische/biotechnologische Produkte ein. Damit Regulierungsbehörden Vertrauen in klinische Studien haben, in denen KI eingesetzt wird, und in die daraus resultierenden Daten, sind folgende Punkte erforderlich:

  • Eine regulatorische Folgenabschätzung, die beurteilt, ob der Einsatz von KI/Machine Learning (ML) als niedrig- oder hochriskant einzustufen ist (im Kontext der Studie und bezüglich der regulatorischen Auswirkungen oder der Patienten in der Studie, nicht die gleiche Risikobewertung wie unter dem KI-Gesetz). Beispiele der EMA für Hochrisikoanwendungen mit Patienten sind die Zuweisung von Patienten zu Behandlungen oder Dosierungsentscheidungen.
  • Transparenz gegenüber den Regulierungsbehörden ist wichtig. Diese möchten selbst beurteilen, ob der Einsatz angemessen ist und zu Ergebnissen führt, die für etwaige Genehmigungen relied werden können. In ihrem Reflexionspapier zur Nutzung von Künstlicher Intelligenz im Lebenszyklus von Arzneimitteln betrachtet die EMA, dass der Einsatz von KI in einer klinischen Studie mit hohem regulatorischen Einfluss eine umfassende regulatorische Bewertung erfordert, die die Offenlegung der vollständigen Modellarchitektur (eingefroren vor Datenbanksperrung und Aufdeckung), Protokolle aus der Modellentwicklung, Validierung und Testung, Trainingsdaten und eine Beschreibung der Datenverarbeitungs-Pipeline umfasst.
  • Compliance mit Datenstandards wie:
    • (i) ICH E6 GCP Kapitel 3.16 über Daten und Aufzeichnungen und Kapitel 4.3 über computerisierte Systeme, die die Prinzipien der Datenintegrität, einschließlich physischer Integrität und Kohärenz, Qualitätskontrolle und Validierung betreffen, um die Vollständigkeit, Genauigkeit und Zuverlässigkeit der in der Studie generierten klinischen Daten zu gewährleisten.
    • (ii) Entwurf ICH E6(3), Anhang 2, veröffentlicht am 20. November 2024, der GCP-Prinzipien für spezifische Aspekte klinischer Studien im Zusammenhang mit der Verwendung von KI-Modellen umfasst, wie die Handhabung von Real-World-Daten über den Gesundheitszustand von Patienten, die aus Quellen außerhalb klinischer Studien gesammelt werden.
    • (iii) ICH E9: statistische Prinzipien für klinische Studien – Schritt 5.
  • Durchdachte Nutzung von KI, wenn beispielsweise große Sprachmodelle (LLMs) zur Unterstützung von Aufgaben und Prozessen im Arzneimittelregulierungsprozess eingesetzt werden, wie in den Leitprinzipien der EMA zur Nutzung großer Sprachmodelle in der regulatorischen Wissenschaft und für Arzneimittelregulierungsaktivitäten dargelegt. Diese Richtlinien beinhalten allgemeine Ratschläge, die für jede Nutzung von LLMs anwendbar sein könnten, wie:
    • (i) Vermeidung der Eingabe sensibler persönlicher Daten oder vertraulicher IP in LLMs, die nicht lokal bereitgestellt oder kontrolliert werden.
    • (ii) Kritisches Denken über die Ausgaben von LLMs anzuwenden, um deren Wahrhaftigkeit, Zuverlässigkeit und Fairness zu überprüfen, bevor sie in regulatorischen Dokumenten verwendet werden.

Die EMA möchte nicht, dass unzuverlässige LLM-Ausgaben zur Vervollständigung regulatorischer Dokumentationen verwendet werden. Es wird angenommen, dass ihre unausgesprochene Angst darin besteht, dass solche Anwendungen sowohl falsch als auch für die Regulierungsbehörde nicht offensichtlich sein könnten.

Verwendung von Medizinprodukten, einschließlich eines KI-Systems

Pharmazeutische und biotechnologische Studien könnten Medizinprodukte oder in-vitro-diagnostische Medizinprodukte nutzen, was bedeutet, dass zusätzlich zur Verordnung über klinische Studien (EU) 536/2014 andere Gesetzgebungen eingehalten werden müssen. Jede Verwendung eines Medizinprodukts in einer pharmazeutischen/biotechnologischen klinischen Studie in der EU/EEA wird entweder als ‚Inverkehrbringen‘ oder ‚Inbetriebnahme‘ betrachtet. Wenn das Gerät noch nicht CE-gekennzeichnet ist, ist dies gemäß der geltenden Verordnung (2017/745 (MDR) oder 2017/746 (IVDR)) mindestens eine Mitteilung an die zuständige Behörde für eine klinische oder Leistungsstudie erforderlich, und in vielen Fällen wird eine Genehmigung erforderlich sein. Wenn das Gerät ein KI-System enthält, das gemäß der Definition im KI-Gesetz (Verordnung 2024/1689) als hochriskant gilt, ist es unwahrscheinlich, dass die tatsächliche Verwendung an Patienten unter den Ausschluss des KI-Gesetzes gemäß Artikel 2(6) der ‚wissenschaftlichen Forschung und Entwicklung‘ fällt. Stattdessen müsste das Gerät zusätzlich die Anforderungen für das Testen hochriskanter KI-Systeme unter realen Bedingungen gemäß den Artikeln 60 und 61 des KI-Gesetzes erfüllen. Die Überlagerung dieser beiden nicht ganz übereinstimmenden Regime führt zu Komplikationen, die möglicherweise nur durch Richtlinien der EU gelöst werden können, von denen wir hoffen, dass sie von Personen mit umfassendem Verständnis der Funktionsweise klinischer Studien sowie mit praktischen Kenntnissen über Medizinprodukte und in-vitro-Medizinprodukte verfasst werden.

Weitere Artikel, die sich mit dem Datenschutz in einem klinischen Kontext befassen, behandeln Zweckbindung und Datenminimierung: entscheidende Überlegungen für das Training von KI im Bereich der Lebenswissenschaften.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...