Les risques des chatbots de santé dans la gouvernance de l’IA

A fractured digital stethoscope with a glowing AI circuit board inside

Les chatbots de santé suscitent des inquiétudes chez les analystes de la gouvernance de l’IA

Lorsque un chatbot d’IA suggère d’ajouter de la colle sur une pizza, l’erreur est évidente. Mais lorsque celui-ci recommande de manger plus de bananes, un conseil nutritionnel qui pourrait être dangereux pour une personne atteinte d’insuffisance rénale, l’erreur se cache à la vue de tous. C’est un risque qui est désormais sur le point d’atteindre des centaines de millions d’utilisateurs avec peu ou pas de réglementation.

Récemment, une entreprise a lancé un service permettant aux utilisateurs de connecter leurs dossiers médicaux et applications de bien-être pour obtenir des conseils de santé personnalisés. Plus de 230 millions de personnes posent des questions de santé chaque semaine, avec 40 millions d’utilisateurs quotidiens cherchant des conseils médicaux.

Les préoccupations des experts

Même certains experts de l’IA sont sceptiques. Les modèles d’IA ne savent pas intrinsèquement quand ils manquent d’informations, et ils ne sont pas calibrés pour exprimer l’incertitude. Ils produisent simplement un texte qui semble plausible et autoritaire, même lorsque ce n’est pas le cas.

L’utilisation de chatbots pour des fins de santé amplifie le risque en raison de ce que certains décrivent comme une asymétrie de vérification. Contrairement à la programmation, où une réponse hallucinée échoue rapidement, en médecine, les conseils dépendent souvent du contexte spécifique au patient, un contexte que le système ne possède généralement pas.

Risques et évaluations de sécurité

Les évaluations de sécurité standard de l’IA peuvent échouer à détecter les sorties les plus risquées. La plupart se concentrent sur des signaux de surface comme les violations de politique explicites ou les erreurs factuelles, tout en récompensant la fluidité et l’empathie. Cela signifie que des conseils subtilement trompeurs peuvent passer les contrôles de sécurité.

Les organisations de santé exigent des niveaux de précision élevés. Les conseils médicaux ne peuvent tolérer le « non-sens cohérent » qui est acceptable dans des domaines moins critiques. La détection des conseils contextuellement trompeurs nécessite une supervision humaine.

Les implications de la gouvernance

La situation actuelle présente un vide de gouvernance qui pourrait créer un risque stratégique pour les organisations déployant des IA de santé. Il n’existe actuellement aucune loi fédérale unifiée ou norme industrielle régissant les chatbots de santé. Les efforts du gouvernement se concentrent sur l’accélération de l’innovation plutôt que sur l’imposition de garde-fous.

En conclusion, les chatbots de santé représentent une avancée technologique prometteuse, mais ils soulèvent des préoccupations sérieuses en matière de sécurité et de gouvernance. Un cadre de responsabilité clair est nécessaire pour protéger les utilisateurs tout en favorisant l’innovation.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...