L’essor des outils d’IA non autorisés dans les hôpitaux

A stethoscope with a glowing, pulsating AI circuit board integrated into its chest piece

Une enquête révèle la présence généralisée d’outils d’IA non autorisés dans les hôpitaux et systèmes de santé

Les résultats soulignent la nécessité de politiques de gouvernance et de conformité claires pour cibler les outils et applications d’IA « fantômes ».

Une nouvelle enquête auprès des professionnels de la santé révèle une tendance croissante : des outils et applications d’IA non autorisés, connus sous le nom d’« IA fantôme », sont actuellement utilisés dans les hôpitaux et systèmes de santé. Cela pourrait soulever des préoccupations concernant la sécurité des patients, la confidentialité des données et la conformité réglementaire. Selon l’enquête, 40 % des répondants ont rencontré un outil d’IA non autorisé dans leurs organisations, et près de 20 % en ont utilisé.

Utilisation des outils d’IA

Les médecins et administrateurs choisissent des outils d’IA pour leur rapidité et l’optimisation de leurs flux de travail. En l’absence d’options approuvées, ils prennent des risques. L’IA fantôme n’est pas seulement un problème technique ; c’est un enjeu de gouvernance qui soulève des préoccupations concernant la sécurité des patients. Les dirigeants doivent agir maintenant pour combler le vide politique autour de l’utilisation de l’IA, développer des directives de conformité claires et s’assurer que seuls des outils d’IA validés et sécurisés sont utilisés dans les soins cliniques.

Résultats clés de l’enquête

  • L’IA fantôme est répandue dans les systèmes de santé : Quarante pour cent des professionnels de la santé ont rencontré des outils d’IA non autorisés sur leur lieu de travail, et près de 20 % admettent les avoir utilisés. Les principales raisons évoquées sont la nécessité de flux de travail plus rapides et la curiosité.
  • Manque de développement et de sensibilisation aux politiques : Les administrateurs sont trois fois plus susceptibles d’être impliqués dans le développement des politiques d’IA que les prestataires (30 % contre 9 %). Cependant, 29 % des prestataires sont conscients des principales politiques, contre 17 % des administrateurs.
  • Une majorité de professionnels de la santé utilise des outils d’IA : Plus de la moitié des professionnels de la santé utilisent fréquemment des outils d’IA et croient que l’IA aura un impact positif sur les soins de santé. Près de 90 % conviennent que l’IA améliorera considérablement les soins de santé dans les cinq prochaines années.
  • La sécurité des patients est une préoccupation majeure : Les prestataires et administrateurs classent la sécurité des patients comme leur principale préoccupation concernant l’IA en santé. Les questions de confidentialité et les violations de données suivent.
  • Préoccupations concernant la sécurité des données de santé : Près d’un quart des professionnels de la santé expriment des inquiétudes concernant les risques de confidentialité et de sécurité associés à l’IA, mettant en évidence les craintes de violations de données et d’accès non autorisé.

Les résultats de l’enquête sur l’IA fantôme soulignent que, bien que l’IA présente un potentiel élevé pour créer de la valeur dans les soins de santé, son adoption dépend davantage de la maturité de la gouvernance organisationnelle que de la technologie elle-même. Les systèmes de santé doivent évoluer pour offrir des contrôles robustes et transparents.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...