Risques potentiels de sécurité des patients liés à l’utilisation de l’IA par la VHA

A shattered digital heart monitor screen with a glowing, pulsating AI circuit board embedded within the cracks

Les risques potentiels pour la sécurité des patients liés à l’utilisation de l’IA par la VHA

Selon une nouvelle analyse, l’utilisation d’outils de chat d’intelligence artificielle (IA) générative par l’administration des anciens combattants (VHA) pour les soins cliniques présente un risque potentiel pour la sécurité des patients.

Analyse de la situation actuelle

La revue du 15 janvier révèle que la VHA ne dispose pas de mécanisme formel pour identifier, suivre ou résoudre les risques associés à l’IA générative, ce qui soulève des inquiétudes quant à la protection de la sécurité des patients alors que la technologie est déployée dans des environnements cliniques.

Selon l’analyse, les efforts de la VHA en matière d’IA pour les soins de santé sont menés par une « collaboration informelle » entre les responsables de l’IA au sein de l’administration. Ces responsables n’ont pas coordonné avec le centre national pour la sécurité des patients lors de l’autorisation des outils de chat IA pour un usage clinique.

Outils autorisés et préoccupations

La VHA a autorisé deux outils de chat IA pour l’utilisation avec les informations de santé des patients : un outil de chat Microsoft 365 Copilot et un outil de chat interne récemment lancé.

Bien que ces outils soient destinés à soutenir la prise de décision clinique, il est précisé que les systèmes d’IA générative peuvent produire des résultats inexactes ou incomplets, y compris des omissions pouvant affecter les diagnostics ou les décisions de traitement.

Inquiétudes et recommandations

Les préoccupations concernant la capacité de la VHA à promouvoir et à protéger la sécurité des patients sans un processus standardisé pour gérer les risques liés à l’IA sont significatives. De plus, l’absence d’un tel processus empêche une boucle de rétroaction et un moyen de détecter des schémas pouvant améliorer la sécurité et la qualité des outils de chat IA utilisés dans les milieux cliniques.

Étant donné la nature critique de la question, il est largement partagé que les dirigeants de la VHA prennent conscience de ce risque pour la sécurité des patients. L’analyse est en cours et aucune recommandation formelle n’a été émise à ce stade.

Contexte plus large

Cette analyse s’aligne avec les résultats d’un rapport récent, qui avertit que les agences gouvernementales opèrent sans la gouvernance opérationnelle nécessaire pour gérer l’IA en toute sécurité. Une enquête a révélé que seulement 10 % des gouvernements disposent d’une gouvernance centralisée de l’IA.

Il est crucial que les responsables prennent des mesures pour établir des contrôles et des mécanismes appropriés afin de garantir la sécurité et l’efficacité des systèmes d’IA dans le domaine de la santé.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...