Certification Pacific AI: John Snow Labs fixe de nouveaux standards pour l’IA responsable en santé

A meticulously crafted, glowing stethoscope with a digital display showing a heartbeat that pulses in sync with a nearby AI algorithm's decision-making process.

John Snow Labs obtient la certification Pacific AI Governance, élevant les standards pour une IA responsable dans le secteur de la santé

Cette certification volontaire renforce la gouvernance de l’IA de l’entreprise et son engagement envers des systèmes d’IA en santé sûrs, équitables et robustes.

John Snow Labs, une entreprise spécialisée en IA pour la santé, a récemment annoncé l’obtention de la certification Pacific AI Governance, validant son engagement de longue date à construire des systèmes d’IA responsables qui sont non seulement précis, mais également sûrs, robustes, conformes et prêts pour le déploiement clinique dans le monde réel.

La certification confirme de manière indépendante que le cadre de gouvernance de l’IA de l’entreprise répond à des exigences rigoureuses en matière de gestion des risques des modèles, de biais, de robustesse, de sécurité et de conformité réglementaire. La politique de gouvernance de Pacific AI est continuellement mise à jour pour s’aligner sur les normes et réglementations de pointe, garantissant ainsi que l’entreprise est toujours en phase avec les lois émergentes au niveau fédéral et étatique.

Importance de la précision et de la robustesse

Dans le domaine de la santé, la précision seule ne suffit pas. Lorsqu’un modèle recommande un traitement, détermine le stade d’un cancer ou extrait des déterminants sociaux de la santé, plusieurs dimensions de succès doivent être prises en compte. Il est crucial de comprendre comment le modèle réagit aux petits changements, son comportement dans des cas extrêmes ou face à des attaques intentionnelles, ainsi que sa capacité à éviter des biais entre différents groupes démographiques.

La certification Pacific AI exige des organisations de démontrer une gouvernance et des contrôles qui vont bien au-delà des benchmarks de performance, englobant la robustesse, l’atténuation des biais, la sécurité, l’auditabilité, la confidentialité et la préparation réglementaire.

Domaines d’application de la certification

La certification s’applique à deux piliers principaux de la plateforme :

  • Modèles de langage à grande échelle en santé : L’entreprise a développé plusieurs modèles médicaux spécialisés, qui sont évalués à l’aide de séries de tests standardisés permettant une comparaison directe avec des fournisseurs de modèles de langage généralistes.
  • Désidentification des textes et protection des données sensibles : La technologie de désidentification des textes, leader du secteur, a été évaluée sur toutes les dimensions de risque de l’IA, renforçant ainsi son adéquation pour une utilisation réglementaire avec des données cliniques sensibles.

Conclusion

La décision de certifier ses propres modèles selon le cadre de Pacific AI souligne la conviction fondamentale que la gouvernance de l’IA doit être appliquée dans la pratique, et non simplement promise en théorie. En tenant ses propres systèmes aux mêmes standards qu’elle préconise à travers l’écosystème de la santé, l’entreprise démontre son engagement envers une IA responsable et rigoureuse.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...