Les Risques de Conformité et de Réputation liés à l’Utilisation de l’IA Souterraine par les Travailleurs

À mesure que l’adoption des outils d’IA se développe, un nouveau problème émerge : lorsque les employeurs ne fournissent pas d’outils d’IA autorisés, de nombreux travailleurs continueront à utiliser ceux de leur choix.

Dans des secteurs tels que la santé, la fabrication et les services financiers, l’utilisation d’outils d’IA non approuvés au travail a augmenté de plus de 200 % d’une année sur l’autre, selon le rapport CX Trends 2025 de Zendesk. Parmi les employés d’entreprise qui utilisent l’IA générative au travail, près de sept sur dix accèdent à des assistants GenAI publics comme ChatGPT. Une enquête de Telus Digital a révélé que 46 % des travailleurs de bureau – y compris des professionnels de l’informatique qui comprennent les risques – utilisent des outils d’IA que leurs employeurs n’ont pas fournis.

« Étant donné que l’IA ne va pas disparaître, les entreprises doivent adopter une approche proactive plutôt que réactive », explique un expert en sécurité. Pour lui, cela signifie garantir que les employés utilisent l’IA de manière sécurisée grâce à des garde-fous empêchant les problèmes de sécurité et de confidentialité, tout en maintenant un dialogue ouvert sur les avantages et les risques de l’IA.

Comment l’IA Souterraine Rend les Organisations Vulnérables

Parallèlement à l’IT souterrain, l’IA souterraine fait référence à l’utilisation d’outils d’intelligence artificielle non approuvés. Des exemples incluent l’utilisation de Microsoft Copilot avec un compte personnel sur un appareil de travail ou l’entrée de données d’entreprise dans une version publique de ChatGPT.

Bien que ces outils puissent améliorer la productivité ou la satisfaction des travailleurs, leur utilisation présente des inconvénients organisationnels considérables.

Les outils d’IA non approuvés menacent directement la confidentialité et la sécurité des données. L’entrée de données telles que des informations clients ou des dossiers financiers dans des outils d’IA publics peut déclencher des violations de réglementations comme le RGPD ou le HIPAA, ou provoquer des fuites de données propriétaires.

Les risques de conformité et de réputation liés à l’utilisation non autorisée d’applications d’IA tierces sont particulièrement aigus dans des secteurs hautement réglementés comme la finance et la santé. « Sans une formation robuste sur l’utilisation correcte et les meilleures pratiques en matière de données, des travailleurs bien intentionnés peuvent facilement violer des règles de conformité ou compromettre des informations privées », avertit un expert.

Mais ce ne sont pas les seules préoccupations en matière de sécurité. Tout logiciel non approuvé peut introduire des vulnérabilités réseau ou système, et les outils d’IA ne font pas exception. « L’utilisation d’IA souterraine peut entraîner du code malveillant, des tentatives de phishing ou d’autres violations de sécurité qui passent inaperçues jusqu’à ce qu’il soit trop tard », souligne l’expert.

Comment Dissuader l’Utilisation de l’IA Souterraine

L’IA souterraine n’est pas simplement un problème d’environnement technologique laxiste ou de lacunes en matière de sécurité informatique ; c’est un signe que les employés ont des besoins non satisfaits par les outils et politiques d’IA existants. « Que ce soit pour l’IA générative ou d’autres outils, l’IT souterrain résulte de l’absence d’une façon définie et raisonnable de tester des outils ou d’accomplir un travail », précise un expert.

La solution consiste à permettre aux employés de devenir des partenaires actifs dans le développement de la gouvernance de l’IA en favorisant un dialogue ouvert au sein de l’environnement de travail sur l’utilisation des outils d’IA. Cela permet aux travailleurs de discuter des outils qui les aident à réussir et permet aux équipes informatiques de partager comment utiliser les outils d’IA de manière sécurisée.

Il est également crucial de s’assurer qu’un outil choisi est intégré de manière efficace et que l’entreprise comprend quelles données elle peut accéder et à quelles fins. L’adoption officielle et l’intégration de copilotes d’IA est une manière de lutter contre l’utilisation d’IA souterraine. Les employés qui ne peuvent pas utiliser un copilote sanctionné peuvent se tourner vers un outil externe.

Ainsi, pour les entreprises, il ne s’agit pas seulement de rejoindre le train de l’IA, mais de comprendre si cela en vaut la peine – tant pour l’entreprise que pour les personnes qui l’utilisent.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...