Les Risques de Conformité et de Réputation liés à l’Utilisation de l’IA Souterraine par les Travailleurs

À mesure que l’adoption des outils d’IA se développe, un nouveau problème émerge : lorsque les employeurs ne fournissent pas d’outils d’IA autorisés, de nombreux travailleurs continueront à utiliser ceux de leur choix.

Dans des secteurs tels que la santé, la fabrication et les services financiers, l’utilisation d’outils d’IA non approuvés au travail a augmenté de plus de 200 % d’une année sur l’autre, selon le rapport CX Trends 2025 de Zendesk. Parmi les employés d’entreprise qui utilisent l’IA générative au travail, près de sept sur dix accèdent à des assistants GenAI publics comme ChatGPT. Une enquête de Telus Digital a révélé que 46 % des travailleurs de bureau – y compris des professionnels de l’informatique qui comprennent les risques – utilisent des outils d’IA que leurs employeurs n’ont pas fournis.

« Étant donné que l’IA ne va pas disparaître, les entreprises doivent adopter une approche proactive plutôt que réactive », explique un expert en sécurité. Pour lui, cela signifie garantir que les employés utilisent l’IA de manière sécurisée grâce à des garde-fous empêchant les problèmes de sécurité et de confidentialité, tout en maintenant un dialogue ouvert sur les avantages et les risques de l’IA.

Comment l’IA Souterraine Rend les Organisations Vulnérables

Parallèlement à l’IT souterrain, l’IA souterraine fait référence à l’utilisation d’outils d’intelligence artificielle non approuvés. Des exemples incluent l’utilisation de Microsoft Copilot avec un compte personnel sur un appareil de travail ou l’entrée de données d’entreprise dans une version publique de ChatGPT.

Bien que ces outils puissent améliorer la productivité ou la satisfaction des travailleurs, leur utilisation présente des inconvénients organisationnels considérables.

Les outils d’IA non approuvés menacent directement la confidentialité et la sécurité des données. L’entrée de données telles que des informations clients ou des dossiers financiers dans des outils d’IA publics peut déclencher des violations de réglementations comme le RGPD ou le HIPAA, ou provoquer des fuites de données propriétaires.

Les risques de conformité et de réputation liés à l’utilisation non autorisée d’applications d’IA tierces sont particulièrement aigus dans des secteurs hautement réglementés comme la finance et la santé. « Sans une formation robuste sur l’utilisation correcte et les meilleures pratiques en matière de données, des travailleurs bien intentionnés peuvent facilement violer des règles de conformité ou compromettre des informations privées », avertit un expert.

Mais ce ne sont pas les seules préoccupations en matière de sécurité. Tout logiciel non approuvé peut introduire des vulnérabilités réseau ou système, et les outils d’IA ne font pas exception. « L’utilisation d’IA souterraine peut entraîner du code malveillant, des tentatives de phishing ou d’autres violations de sécurité qui passent inaperçues jusqu’à ce qu’il soit trop tard », souligne l’expert.

Comment Dissuader l’Utilisation de l’IA Souterraine

L’IA souterraine n’est pas simplement un problème d’environnement technologique laxiste ou de lacunes en matière de sécurité informatique ; c’est un signe que les employés ont des besoins non satisfaits par les outils et politiques d’IA existants. « Que ce soit pour l’IA générative ou d’autres outils, l’IT souterrain résulte de l’absence d’une façon définie et raisonnable de tester des outils ou d’accomplir un travail », précise un expert.

La solution consiste à permettre aux employés de devenir des partenaires actifs dans le développement de la gouvernance de l’IA en favorisant un dialogue ouvert au sein de l’environnement de travail sur l’utilisation des outils d’IA. Cela permet aux travailleurs de discuter des outils qui les aident à réussir et permet aux équipes informatiques de partager comment utiliser les outils d’IA de manière sécurisée.

Il est également crucial de s’assurer qu’un outil choisi est intégré de manière efficace et que l’entreprise comprend quelles données elle peut accéder et à quelles fins. L’adoption officielle et l’intégration de copilotes d’IA est une manière de lutter contre l’utilisation d’IA souterraine. Les employés qui ne peuvent pas utiliser un copilote sanctionné peuvent se tourner vers un outil externe.

Ainsi, pour les entreprises, il ne s’agit pas seulement de rejoindre le train de l’IA, mais de comprendre si cela en vaut la peine – tant pour l’entreprise que pour les personnes qui l’utilisent.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...