L’écart de conformité de 83 % des entreprises pharmaceutiques face à la sécurité des données IA

A pharmaceutical bottle with a digital fingerprint label representing compliance in drug data security.

La sécurité des données liées à l’IA : Le fossé de conformité de 83 % rencontrant les entreprises pharmaceutiques

Le secteur pharmaceutique se trouve à un carrefour dangereux. Alors que les entreprises s’empressent d’exploiter l’intelligence artificielle pour la découverte de médicaments, l’optimisation des essais cliniques et l’efficacité de la fabrication, une nouvelle étude de l’industrie révèle une vérité choquante : seulement 17 % des organisations ont mis en place des contrôles automatisés pour empêcher la fuite de données sensibles via des outils d’IA. Cela signifie que 83 % des entreprises pharmaceutiques, y compris de nombreuses organisations de développement et de fabrication sous contrat, fonctionnent sans les protections techniques de base nécessaires.

Dans cette étude, qui a sondé 461 professionnels de la cybersécurité, de l’informatique, de la gestion des risques et de la conformité à travers divers secteurs, un décalage critique a été mis en lumière entre les croyances des dirigeants pharmaceutiques concernant la sécurité de l’IA et la réalité sur le terrain. La situation est d’autant plus alarmante qu’une seule fuite de structure moléculaire peut anéantir des milliards d’investissements en recherche.

L’état de la sécurité de l’IA dans les secteurs pharmaceutiques : Un constat amer

Les chiffres peignent un tableau inquiétant de la sécurité de l’IA dans le secteur pharmaceutique. Selon l’étude, la grande majorité des organisations s’appuient sur des mesures dangereusement inadéquates pour protéger leurs données contre l’exposition à l’IA. Au sommet de la pyramide de sécurité, seulement 17 % disposent de technologies qui bloquent automatiquement l’accès non autorisé à l’IA et analysent les données sensibles.

Les 83 % restants dépendent d’approches centrées sur l’humain de plus en plus peu fiables. Quarante pour cent s’appuient sur des sessions de formation des employés et des audits périodiques, espérant que le personnel se souvienne et respecte les règles sous pression. Vingt pour cent envoient des e-mails d’avertissement concernant l’utilisation de l’IA sans jamais vérifier la conformité. Dix pour cent se contentent de publier des directives, tandis qu’un 13 % alarmant n’a aucune politique en place.

Ce qui est réellement exposé

La recherche révèle que 27 % des organisations de la vie reconnaissent que plus de 30 % de leurs données traitées par l’IA contiennent des informations sensibles ou privées. Dans un contexte pharmaceutique, cela représente un niveau d’exposition catastrophique, englobant les actifs les plus précieux de l’industrie.

Les employés pharmaceutiques partagent quotidiennement des informations critiques avec des outils d’IA. Les structures moléculaires propriétaires, qui ont nécessité des années de développement, sont téléchargées pour une analyse rapide, tandis que les résultats d’essais cliniques non publiés sont collés dans des chatbots pour obtenir des résumés. Chaque action, bien intentionnée, crée une exposition permanente aux risques.

Le défi de la conformité

Pour les entreprises pharmaceutiques, les implications réglementaires d’une utilisation incontrôlée de l’IA engendrent une tempête parfaite en matière de conformité. L’étude a révélé que seulement 12 % des organisations considèrent les violations de conformité comme l’une de leurs principales préoccupations en matière d’IA. Cette négligence est d’autant plus dangereuse dans un contexte où les réglementations sont en forte augmentation.

Les pratiques actuelles violent simultanément plusieurs exigences réglementaires. Par exemple, la loi HIPAA exige des pistes de vérification complètes pour tous les accès aux informations de santé protégées, mais les entreprises ne peuvent pas suivre ce qui circule dans les outils d’IA non autorisés.

Pourquoi les entreprises pharmaceutiques sont particulièrement vulnérables

Le développement moderne de médicaments implique de vastes partenariats avec des organisations de développement et de fabrication sous contrat, des organisations de recherche contractuelles, des institutions académiques et des fournisseurs technologiques. Chaque partenaire peut introduire de nouveaux outils d’IA et des vulnérabilités de sécurité.

Vers une protection réelle

Pour remédier à ces lacunes, les entreprises doivent immédiatement passer à des contrôles techniques qui empêchent automatiquement l’accès non autorisé à l’IA et l’exposition des données. Les éléments essentiels d’une gouvernance efficace de l’IA dans le secteur pharmaceutique commencent par la classification et le blocage automatiques des données.

Conclusion

Le secteur pharmaceutique fait face à une fenêtre de temps réduite pour aborder les fuites de données liées à l’IA avant que des conséquences catastrophiques n’apparaissent. Avec 83 % des organisations opérant sans protections techniques de base tout en perdant leurs données les plus précieuses, le fossé entre la sécurité perçue et réelle a atteint des niveaux critiques.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...