Künstliche Intelligenz im Gesundheitswesen: Verantwortung und Sicherheit
Die Gefahr von Patientenschäden, die durch Entscheidungen eines auf Künstlicher Intelligenz basierenden klinischen Werkzeugs verursacht werden, ist ein Thema, mit dem die aktuellen Praktiken der Verantwortung und Sicherheit weltweit noch nicht angemessen umgegangen sind. Dieser Artikel konzentriert sich auf zwei Aspekte der klinischen Künstlichen Intelligenz, die für die Entscheidungsfindung verwendet wird: die moralische Verantwortung für Schäden an Patienten und die Sicherheitsgarantie, um Patienten vor solchen Schäden zu schützen.
Moralische Verantwortung
Moralische Verantwortung betrifft unter anderem die Rechenschaftspflicht für Entscheidungen und Handlungen. In der Vergangenheit gab es einen starken Trend in der Philosophie, moralische Verantwortungsurteile als eine inhärent soziale Praxis zu betrachten. Diese Urteile drücken Reaktionen wie Ärger oder Dankbarkeit aus, die darauf basieren, wie wir von anderen behandelt werden.
Die Bedingungen, unter denen eine Person als moralisch verantwortlich angesehen wird, sind im Wesentlichen die Kontrollbedingung (Kontrolle über die Entscheidung oder Handlung) und die epistemische Bedingung (ausreichendes Verständnis der Entscheidung und ihrer wahrscheinlichen Konsequenzen). Diese Bedingungen können jedoch in Bezug auf Künstliche Intelligenz in der Entscheidungsfindung problematisch sein, da Kliniker oft keine direkte Kontrolle über die Entscheidungen haben, die von einem System getroffen werden.
Sicherheitsgarantie
Die Sicherheitsgarantie befasst sich mit der Demonstration von Vertrauen in die Sicherheit eines Systems. Die Sicherheit wird häufig durch einen Sicherheitsnachweis kommuniziert, der von den Entwicklern der Technologie erstellt wird und eine begründete Argumentation unterstützt von einer Vielzahl von Beweisen darstellt. Diese Dokumentation ist entscheidend, um Transparenz im gesamten Prozess zu schaffen und implizite Annahmen offenzulegen.
Die Kombination aus hohem Risiko und strengen Vorschriften hat den Umfang und die Autorität digitaler Gesundheitsinterventionen stark eingeschränkt. Es gab daher nur eine begrenzte Übertragung der klinischen Entscheidungsfindung von Klinikern auf digitale Systeme. Kritische Softwarefunktionen wurden eng definiert, um vorhersehbares Verhalten zu gewährleisten.
Beispielsystem: AI Clinician
Das Beispielsystem, das hier betrachtet wird, betrifft die Behandlung von Sepsis. Sepsis ist eine lebensbedrohliche Organfunktionsstörung, die als Reaktion auf eine Infektion auftritt. Um dieser Herausforderung zu begegnen, haben Forscher das Artificial Intelligence (AI) Clinician entwickelt, ein Konzept, das zur Empfehlung von Maßnahmen zur Betreuung von Patienten mit Sepsis beiträgt. Dieses System analysiert eine Vielzahl von Daten und nutzt einen Markov-Entscheidungsprozess, um klinische Entscheidungen zu simulieren und personalisierte Empfehlungen bereitzustellen.
Potenzielle Vorteile und Schäden
Das AI Clinician bietet Empfehlungen für personalisierte Behandlungen auf der Grundlage der Ergebnisse Tausender Patienten. Es ist jedoch zu beachten, dass die Übertragung eines Teils des Entscheidungsprozesses auf eine Maschine die moralische Verantwortung der Kliniker schwächen kann. Die Bedingungen, unter denen ein Kliniker verantwortlich gemacht werden kann, werden dadurch komplizierter, da er nicht direkt in den internen Entscheidungsprozess des Systems eingreifen kann.
Die epistemische Bedingung wird ebenfalls beeinträchtigt, da es schwierig ist, zu definieren, was die beste Praxis in der Behandlung von Sepsis darstellt. Es gibt viele unterschiedliche Ansätze, die von verschiedenen Klinikern verwendet werden, und die beste Praxis ändert sich kontinuierlich.
Der Weg nach vorne
Die Bestimmung, wo die moralische Verantwortung in komplexen sozio-technischen Systemen liegt, ist eine schwierige und ungenaue Aufgabe. Es ist wichtig, Entwickler von Künstlicher Intelligenz und Systeme sicherheitsingenieure in die Bewertungen der moralischen Verantwortung für Patientenschäden einzubeziehen. Es besteht auch die Notwendigkeit, von einem statischen zu einem dynamischen Modell der Sicherheitsgarantie überzugehen, um die Herausforderungen der Sicherheit und Verantwortung in der Anwendung von Künstlicher Intelligenz im Gesundheitswesen besser zu adressieren.