Inquiétudes concernant ChatGPT Santé : l’IA face à la désinformation médicale

A shattered stethoscope with a circuit board intertwined within its broken parts

Opinion : Les inquiétudes concernant ChatGPT Health en Australie face aux conseils d’IA et au manque de réglementation

Il existe de nombreux points d’accès à ChatGPT Health avec une seule recherche. Il s’agit d’un service de chat qui propose une gamme de services liés aux problèmes médicaux pour les consommateurs.

Le lancement récent de ChatGPT Health est « juste » un service d’information générale, mais les cadres de référence sont énormes. C’est une interface pour des informations générales, qui peuvent être interprétées comme des conseils.

Un article sur ChatGPT Health souligne clairement et de manière alarmante ce qui peut mal tourner, notamment un cas où une personne a pris du bromure de sodium au lieu de sel de table.

Problèmes rencontrés

Pour expliquer ce problème de manière succincte : l’IA s’appuie sur des données disponibles pour traiter les demandes. Les données disponibles pour le bromure de sodium sont minimales et médiocres. Même les fabricants semblent avoir peu d’informations à leur disposition.

L’IA ne peut voir que :

  • Données de recherche générale. C’est acceptable pour un aperçu général, mais à peine au niveau d’un diagnostic. Cela inclut des informations sur la sécurité et la toxicité.
  • Informations sur le produit, telles qu’elles sont. Notez les nombreuses entrées « Pas de données disponibles » sur cette fiche d’information.

Ainsi, cette personne prend du bromure de sodium, commence à halluciner et finit à l’hôpital. Ironiquement, les informations sur la toxicité dans la recherche de base incluent des hallucinations.

Les enjeux majeurs

Le principal problème est que cela représente un « excès de pouvoir de l’IA ». Dans ce cas, le consommateur a largement dépassé ses propres connaissances. Ce type d’information ne peut pas se traduire en solution rapide pour le sel de table ou quoi que ce soit d’autre.

Dans le cas de ChatGPT Health, il s’agit d’un énorme dépassement. Il est une chose de simplement énoncer des informations factuelles. Transposer ce niveau d’information en quelque sorte de conseils médicaux est hors de question.

Une des raisons pour lesquelles la santé en ligne a décollé est parce qu’elle est censée être fondamentalement le même service que celui que vous obtiendriez d’un médecin généraliste. C’est rapide, efficace, cela fait gagner du temps et de l’argent aux deux parties, et personne n’a à risquer sa vie dans la circulation pour traiter un rhume.

Les services de santé basés sur l’IA comme celui-ci sont inévitablement dépassés dans ces fonctions de base. Ils ne sont pas soumis au même niveau de scrutin bilatéral.

Un médecin généraliste et un patient pourraient simplement regarder les mêmes informations de l’IA et décider s’ils croient ou font confiance à ces informations.

Le bromure de sodium n’aurait certainement pas passé ce niveau de scrutiny très basique. Un agent désinfectant pour piscine comme sel de table ? Peut-être pas.

Réglementation

La réglementation pourrait être plus facile qu’il n’y paraît. Selon la loi australienne, une entreprise médicale ne peut pas fournir de services médicaux. Elle n’est pas non plus une personne juridique. Ce sont des distinctions très importantes.

Alors, comment une IA pourrait-elle fournir les mêmes services ? L’IA n’est pas non plus une personne juridique. Cela pourrait bien s’étendre à toute forme de conseils médicaux.

En tant qu’atout thérapeutique, l’IA pourrait être réglementée par l’Administration des produits thérapeutiques. Elle ne pourrait fonctionner que sous des réglementations thérapeutiques générales, avec un certain nombre de garanties intégrées. Notez que l’interprétation raisonnable de « thérapie » peut facilement inclure des services de conseil.

Pourquoi réglementer ?

Parce que sinon, tout produit pseudo-médical dangereux peut entrer dans la chaîne alimentaire. Parce qu’il y a de sérieux risques de dommages majeurs. Regardez combien de soucis les États-Unis ont avec ses médicaments, qu’ils soient réglementés ou non. Le risque est trop élevé.

Oubliez « l’acheteur doit se méfier ». Pourquoi l’acheteur de quoi que ce soit devrait-il se méfier de quoi que ce soit ? Qu’est-ce qui ne va pas avec une obligation de commercialiser des produits sûrs ?

Un autocollant d’avertissement disant « ce produit pourrait exterminer toute votre famille » peut être noble et édifiant et dire à quel point les fabricants sont gentils, mais pourquoi en avez-vous besoin ? « Peut contenir du plutonium » vous dit-il suffisamment ?

Dans le cas du bromure de sodium, il est juste de supposer que personne n’a sérieusement considéré qu’il était un substitut au sel de table. Vous ne devriez pas avoir besoin de vous le faire dire, mais voici un cas documenté de cela.

L’IA est destinée à être une partie critique de la médecine. Elle doit être sûre.

Avis
Les opinions exprimées dans cet article d’opinion sont celles de l’auteur. Elles ne prétendent pas refléter les opinions ou les vues d’une publication ou de ses membres.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...