Leitlinien für den Einsatz von KI in der Arzneimittelentwicklung

Modellverhalten: Leitfaden der FDA und EMA für gute KI in der Arzneimittelentwicklung

Die US-amerikanische Food and Drug Administration (FDA) und die Europäische Arzneimittel-Agentur (EMA) haben gemeinsam eine Erklärung veröffentlicht, die zehn „Leitprinzipien“ für die Nutzung von künstlicher Intelligenz (KI) in der Arzneimittelentwicklung umreißt.

Was wurde veröffentlicht

Die Erklärung legt zehn Prinzipien fest, wie KI entworfen, verwendet und verwaltet werden sollte, wenn sie Beweise in der Arzneimittelentwicklung generiert oder analysiert. Laut einer Mitteilung der FDA wird dies das Potenzial von KI voll ausschöpfen und gleichzeitig die Zuverlässigkeit der Informationen gewährleisten, um die Patientensicherheit und regulatorische Exzellenz zu sichern.

Warum das wichtig ist für die Interaktion mit der FDA und EMA

Die FDA und EMA konzentrieren sich darauf, ob die Beweise hinter Entscheidungen zuverlässig und vollständig sind. Die neuen Prinzipien ändern zwar nicht das bestehende Recht, stimmen jedoch mit dem überein, was die Regulierungsbehörden bereits in der Praxis anwenden. Die Erklärung macht deutlich, dass Sponsoren und ihre Partner mit Fragen der Regulierungsbehörden rechnen sollten, wie und wo die Daten generiert wurden, wie sie verarbeitet wurden und wie das Modell getestet wurde, um zu zeigen, dass es für den beabsichtigten Zweck funktioniert.

Die zehn Prinzipien in einfachen Worten

Die zehn Prinzipien fallen in fünf allgemeine Themen:

  1. Menschzentriertes Design
    KI sollte so entwickelt und verwendet werden, dass sie ethische und menschliche Werte widerspiegelt. Sponsoren und Partner sollten vorausschauend darüber nachdenken, wie die KI-Technologie Patienten und Nutzer beeinflussen könnte, und von Anfang an Schutzmaßnahmen einbauen.
  2. Risikobasierte Kontrolle
    Jede KI-Nutzung sollte einen klaren Anwendungszusammenhang haben, der erklärt, was sie tut und wie ihre Ergebnisse verwendet werden. Entscheidungen sollten basierend auf dem Risiko getroffen werden, das das Modell darstellt, und entsprechende Tests sowie Sicherheitsmaßnahmen sollten diesem Risiko angepasst werden.
  3. Übereinstimmung mit Standards und die richtige Expertise
    KI-Arbeiten sollten geltenden rechtlichen, ethischen, technischen, wissenschaftlichen, Cybersicherheits- und regulatorischen Standards folgen, einschließlich guter klinischer Praxis und guter Herstellungspraxis.
  4. Solide Daten- und Modellpraxis
    Sponsoren und ihre Partner müssen Datenquellen, Verarbeitungsschritte und analytische Entscheidungen nachverfolgen und dokumentieren, sodass diese detailliert, nachvollziehbar und überprüfbar sind.
  5. Strenge Bewertung und Lebenszykluskontrolle
    Die Leistungsbewertung sollte das gesamte System betrachten, einschließlich wie Menschen in realen Arbeitsabläufen mit der KI interagieren. Validierung sollte mit Daten und Maßstäben erfolgen, die mit dem angegebenen Anwendungszusammenhang übereinstimmen.

Anpassung an bestehende Anforderungen der FDA und EMA

Diese Prinzipien passen in die Rahmenwerke, die die FDA und EMA bereits verwenden, um die Datenintegrität, Produktqualität und Patientensicherheit zu bewerten. Der Fokus auf gute Dokumentation spiegelt langjährige Erwartungen an Nachverfolgbarkeit und Auditierbarkeit wider.

Fazit

Die gemeinsamen Leitprinzipien bieten einen klaren Rahmen für die verantwortungsvolle Nutzung von KI in der Arzneimittelentwicklung und tragen dazu bei, dass regulatorische Anforderungen erfüllt werden, während gleichzeitig das Potenzial dieser Technologien ausgeschöpft wird.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...