Die Risiken von KI-gestützten Gesundheitschatbots

Gesundheits-Chatbots lösen Besorgnis bei Analysten für KI-Governance aus

Wenn ein KI-Chatbot den Menschen rät, Kleber auf Pizza zu geben, ist der Fehler offensichtlich. Wenn er jedoch empfiehlt, mehr Bananen zu essen – ein gesunder Ernährungstipp, der für jemanden mit Nierenversagen gefährlich sein könnte – versteckt sich der Fehler im Alltäglichen.

Das Risiko, das nun Hunderte Millionen Nutzer ohne oder mit minimaler regulatorischer Aufsicht erreichen könnte, ist erheblich.

Kürzlich wurde ein Gesundheits-Chatbot eingeführt, der es Nutzern ermöglicht, medizinische Daten und Wellness-Apps für personalisierte Gesundheitsanleitungen zu verbinden. Es wird berichtet, dass wöchentlich über 230 Millionen Menschen Gesundheitsfragen stellen, wobei täglich 40 Millionen Nutzer medizinischen Rat suchen.

Skepsis unter Experten

Einige KI-Experten äußern Bedenken. Sie weisen darauf hin, dass die Modelle, die für diese Chatbots verwendet werden, probabilistische Textgenerierungsmodelle sind, die nicht wissen, wann sie nicht genügend Informationen haben. Sie sind nicht intrinsisch kalibriert, um Unsicherheiten auszudrücken, und haben kein internes Verständnis dafür, was „richtig“ oder „falsch“ ist. Sie sind einfach sehr gut darin, plausibel und autoritär klingenden Text zu produzieren, selbst wenn dieser nicht korrekt ist.

Die Nutzung von Chatbots im Gesundheitswesen verstärkt das Risiko durch eine als Verifizierungsasymmetrie beschriebene Problematik. Während in der Programmierung ein fehlerhaftes Ergebnis oft schnell scheitert, ist medizinische Anleitung hochgradig kontextabhängig und hängt von patientenspezifischen Faktoren ab, die das System normalerweise nicht hat. Gesundheitsberatung ist oft voller „Es kommt darauf an“, was es einfacher macht, dass eine KI sinnvoll klingt, während sie kontextuell falsch ist und es für Nutzer schwieriger wird, die Antwort unabhängig zu überprüfen.

Bewertung der KI-Sicherheit

Standardbewertungen der KI-Sicherheit könnten die riskantesten Ausgaben nicht erkennen. Die meisten Bewertungen konzentrieren sich auf oberflächliche Signale wie explizite Politikverletzungen, faktische Fehler oder Krisenschlagwörter und belohnen gleichzeitig Fluidität und Empathie. Das bedeutet, dass subtil irreführende Ratschläge die Sicherheitsprüfungen bestehen können.

Analysten im Gesundheitswesen betonen, dass Organisationen hohe Genauigkeitsanforderungen benötigen. Medizinische Ratschläge dürfen keine „kohärente Nonsens“-Informationen enthalten, die in weniger kritischen Bereichen akzeptabel sind. Das Erkennen von kontextuell irreführenden Ratschlägen erfordert menschliche Aufsicht, um subtile Probleme zu identifizieren, verborgene Probleme ans Licht zu bringen und das Vertrauen nach Fehlern der KI wiederherzustellen.

Technische und nicht-technische Lösungsansätze

Eine der effektivsten technischen Sicherheitsvorkehrungen besteht darin, dass Systeme nicht nur Antworten geben, sondern auch die spezifische medizinische Quelle, die die Antwort unterstützt, hervorheben müssen. Auf der nicht-technischen Seite wird empfohlen, Produktfriktionen einzuführen, indem Antworten verschwommen angezeigt werden, bis Nutzer die Haftungsausschlüsse anerkennen, oder indem unsichere Phrasen hervorgehoben werden. Unternehmen sind jedoch oft unwillig, Friktionen einzuführen, da sie möchten, dass ihre KI „magisch, sofort und menschlich“ wirkt.

Unklare Haftungsrahmen

Der Haftungsrahmen ist derzeit ungelöst. Es gibt kein einheitliches Bundesgesetz oder einen Branchenstandard, der Verbraucher-Health-Chatbots regelt. Während die Regierung die KI-Adoption durch Initiativen fördert, konzentrieren sich diese Bemühungen darauf, Innovationen zu beschleunigen, anstatt Sicherheitsleitlinien zu etablieren. Verbraucher-Health-Chatbots arbeiten in einer fragmentierten Governance-Umgebung mit minimalen proaktiven Einschränkungen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...