Gesundheits-AI: Verantwortung und Innovation im Wandel

Erstens, kein Schaden: Gestaltung der Governance von Gesundheits-AI in einer sich verändernden globalen Landschaft

Die regulatorische Landschaft für Künstliche Intelligenz (AI) hat in den letzten sechs Monaten monumentale Veränderungen erfahren. Die Rhetorik, die Regulation als Barrier für AI-Innovation und die sich ergebenden Möglichkeiten, insbesondere für Gesundheit und Lebenswissenschaften, betrachtet, hat an Fahrt gewonnen.

Im letzten Herbst gab es Gerüchte, dass die USA ihren Kurs in Bezug auf die AI-Regulierung ändern würden. Seitdem hat Präsident Donald J. Trump viele Schritte der Biden-Administration in Richtung spezifischer AI-Regulierung zurückgenommen. Auch die EU hat unerwartet ihre Bemühungen aufgegeben, den vorgeschlagenen AI Liability Directive anzunehmen, und hat ein Arbeitsprogramm eingeführt, das darauf hindeutet, dass sie ebenfalls einen innovationsfreundlicheren Ansatz verfolgen könnte.

Das Vereinigte Königreich hat ebenfalls eine pro-innovative Rhetorik in seiner AI-Politik übernommen. Ihr regulatorischer Ansatz unterscheidet sich jedoch charakteristisch von dem der EU und der USA: Es wurden keine spezifischen AI-Regulierungen wie in der EU geschaffen, noch wurde eine starke Deregulierung zur Förderung von Innovationen wie in den USA eingeleitet. Stattdessen wird typischerweise versucht, bestehende gesetzliche Regelungen oder Richtlinien zu überarbeiten und anzupassen, um AI-Entwickler zu unterstützen und die Öffentlichkeit zu schützen.

Governance und Haftung in der medizinischen AI: Wer ist verantwortlich, wenn AI versagt?

Da AI-Tools im Gesundheitswesen in bestimmten Aufgaben menschliche Fähigkeiten übertreffen, wird es zunehmend komplex, das richtige Gleichgewicht zwischen AI-Autonomie und menschlicher Aufsicht zu finden. Fragen der Verantwortung und Haftung, insbesondere wenn Schaden entsteht, stehen nun im Mittelpunkt für Regulierer, Entwickler und Kliniker.

Um diese Herausforderungen zu beleuchten, wurde in einem Workshop der PHG Foundation und des Centre for Law, Medicine and Life Sciences untersucht, wie verschiedene regulatorische Regime – einschließlich medizinischer Gerätegesetze, des EU AI-Gesetzes, des Datenschutzes sowie der Fahrlässigkeits- und Produkthaftungsgesetze – miteinander verknüpft sind. Die Diskussionen führten zu wertvollen Erkenntnissen und einer Reihe drängender Fragen für politische Entscheidungsträger, Forscher und Regulierungsbehörden.

Synthetische Gesundheitsdaten

Synthetische Daten haben ein erhebliches Potenzial, die Entwicklung und den Einsatz von Künstlicher Intelligenz als medizinisches Gerät (AIaMD) voranzutreiben, insbesondere in Bereichen, in denen reale Daten begrenzt, sensibel oder kostspielig zu beschaffen sind. Während bestehende Richtlinien eine solide Grundlage bieten, erfordert die Verwendung synthetischer Daten zusätzliche Klarheit, insbesondere wenn sie einen zentralen Bestandteil der Beweisgrundlage in regulatorischen Einreichungen bilden.

Herausforderungen für die Überwachung von medizinischen AI nach dem Markteintritt

AI bringt auch Herausforderungen für die Regulierung medizinischer Geräte mit sich, die bereits im Einsatz sind, da sich potenziell Änderungen ergeben können, die ihre Sicherheit und Leistung betreffen. Das innovative und kooperative Vorgehen, das die MHRA durch ihr AI Airlock-Programm verfolgt, zielt darauf ab, neuartige regulatorische Herausforderungen, die durch AI entstehen, zu identifizieren und anzugehen. In einem Workshop im März wurden klinische, technische, politische, rechtliche und regulatorische Experten zusammengebracht, um Verständnis und Ideen zu den Überwachungs- und Berichtserfordernissen für AI im Rahmen der Nachmarktüberwachung medizinischer Geräte zu generieren.

Wichtige Themen, die in den Projekten durchlaufen

  • Agile Regulierung und internationale Ausrichtung sind entscheidend: Mit den sich beschleunigenden Fähigkeiten von AI müssen Regulierungsbehörden dynamisch reagieren können.
  • Regulatorische und ethische Bedenken sind nicht verschwunden: Sie sind derzeit nicht die dominierende Erzählung, aber sie werden mit der erneuten Betonung von Innovation schnell wieder sichtbar.
  • Ressourcierung: Es ist wichtig sicherzustellen, dass Regulierungsbehörden über die Ressourcen und das Fachwissen verfügen, um mit den sich schnell entwickelnden Technologien Schritt zu halten.

Die PHG Foundation arbeitet mit einer Vielzahl von Partnern an diesem empfindlichen Balanceakt, um die verantwortungsvolle Einführung von AI-Technologien zu fördern, die nicht nur innovativ, sondern auch effektiv, sicher und wirklich gesundheitsfördernd sind.

More Insights

Kongress plant Aussetzung der KI-Regulierung

Während die Aufmerksamkeit der Medien auf den vorgeschlagenen Kürzungen bei Medicaid gerichtet ist, gibt es eine weniger beachtete Bestimmung im Haushaltsgesetz, die alle staatlichen und lokalen...

Die AI-Flaggenkrise Malaysias: Dringender Bedarf an digitaler Governance

Die jüngsten Vorfälle mit KI-generierten Darstellungen der malaysischen Nationalflagge verdeutlichen die Notwendigkeit, die KI-Kompetenz zu fördern. Diese Vorfälle haben nationale Empörungen ausgelöst...

Verantwortungsbewusste KI: Einsichten aus der Global AI Trust Maturity Survey

Das schnelle Wachstum von generativer KI und großen Sprachmodellen (LLMs) treibt die Einführung in verschiedenen Geschäftsbereichen voran. Verantwortliche KI-Praktiken sind entscheidend, um Risiken zu...

Verantwortliche KI: Treibkräfte für die Marktakzeptanz

Philosophische Prinzipien, politische Debatten und regulatorische Rahmenbedingungen haben die Diskussionen über die Ethik von KI dominiert. Wir müssen ethische Überlegungen als strategischen...

GDPR und KI-Gesetz: Ein einfacher Weg für Europa

Die Datenschutz-Grundverordnung (DSGVO) erschwert die notwendige und wünschenswerte Nutzung von Daten und KI. Unternehmen, die an der Entwicklung neuer KI-Lösungen beteiligt sind, benötigen einen...

Colorado: Legislatur scheitert an Änderungen des KI-Gesetzes

Das Colorado-Gesetzgeber hat kürzlich einen Änderungsantrag zum Gesetz über künstliche Intelligenz abgelehnt, das 2024 verabschiedet wurde. Trotz der Bemühungen, die Anforderungen für Entwickler und...

Einsatz von KI im Recruiting: Chancen und Risiken für Unternehmen in der EU und den USA

Künstliche Intelligenz verändert die Rekrutierungslandschaft weltweit, indem sie Prozesse wie die Lebenslaufprüfung und die Interaktion mit Kandidaten effizienter gestaltet. Unternehmen müssen jedoch...

Finanzielle Herausforderungen der EU-Mitgliedstaaten bei der Umsetzung des KI-Gesetzes

EU-Politikberater Kai Zenner warnte, dass viele EU-Mitgliedstaaten finanziell angespannt sind und nicht über das notwendige Fachpersonal verfügen, um das AI-Gesetz effektiv durchzusetzen. Bis zum 2...