Les Risques de Conformité et de Réputation liés à l’Utilisation de l’IA Souterraine par les Travailleurs

À mesure que l’adoption des outils d’IA se développe, un nouveau problème émerge : lorsque les employeurs ne fournissent pas d’outils d’IA autorisés, de nombreux travailleurs continueront à utiliser ceux de leur choix.

Dans des secteurs tels que la santé, la fabrication et les services financiers, l’utilisation d’outils d’IA non approuvés au travail a augmenté de plus de 200 % d’une année sur l’autre, selon le rapport CX Trends 2025 de Zendesk. Parmi les employés d’entreprise qui utilisent l’IA générative au travail, près de sept sur dix accèdent à des assistants GenAI publics comme ChatGPT. Une enquête de Telus Digital a révélé que 46 % des travailleurs de bureau – y compris des professionnels de l’informatique qui comprennent les risques – utilisent des outils d’IA que leurs employeurs n’ont pas fournis.

« Étant donné que l’IA ne va pas disparaître, les entreprises doivent adopter une approche proactive plutôt que réactive », explique un expert en sécurité. Pour lui, cela signifie garantir que les employés utilisent l’IA de manière sécurisée grâce à des garde-fous empêchant les problèmes de sécurité et de confidentialité, tout en maintenant un dialogue ouvert sur les avantages et les risques de l’IA.

Comment l’IA Souterraine Rend les Organisations Vulnérables

Parallèlement à l’IT souterrain, l’IA souterraine fait référence à l’utilisation d’outils d’intelligence artificielle non approuvés. Des exemples incluent l’utilisation de Microsoft Copilot avec un compte personnel sur un appareil de travail ou l’entrée de données d’entreprise dans une version publique de ChatGPT.

Bien que ces outils puissent améliorer la productivité ou la satisfaction des travailleurs, leur utilisation présente des inconvénients organisationnels considérables.

Les outils d’IA non approuvés menacent directement la confidentialité et la sécurité des données. L’entrée de données telles que des informations clients ou des dossiers financiers dans des outils d’IA publics peut déclencher des violations de réglementations comme le RGPD ou le HIPAA, ou provoquer des fuites de données propriétaires.

Les risques de conformité et de réputation liés à l’utilisation non autorisée d’applications d’IA tierces sont particulièrement aigus dans des secteurs hautement réglementés comme la finance et la santé. « Sans une formation robuste sur l’utilisation correcte et les meilleures pratiques en matière de données, des travailleurs bien intentionnés peuvent facilement violer des règles de conformité ou compromettre des informations privées », avertit un expert.

Mais ce ne sont pas les seules préoccupations en matière de sécurité. Tout logiciel non approuvé peut introduire des vulnérabilités réseau ou système, et les outils d’IA ne font pas exception. « L’utilisation d’IA souterraine peut entraîner du code malveillant, des tentatives de phishing ou d’autres violations de sécurité qui passent inaperçues jusqu’à ce qu’il soit trop tard », souligne l’expert.

Comment Dissuader l’Utilisation de l’IA Souterraine

L’IA souterraine n’est pas simplement un problème d’environnement technologique laxiste ou de lacunes en matière de sécurité informatique ; c’est un signe que les employés ont des besoins non satisfaits par les outils et politiques d’IA existants. « Que ce soit pour l’IA générative ou d’autres outils, l’IT souterrain résulte de l’absence d’une façon définie et raisonnable de tester des outils ou d’accomplir un travail », précise un expert.

La solution consiste à permettre aux employés de devenir des partenaires actifs dans le développement de la gouvernance de l’IA en favorisant un dialogue ouvert au sein de l’environnement de travail sur l’utilisation des outils d’IA. Cela permet aux travailleurs de discuter des outils qui les aident à réussir et permet aux équipes informatiques de partager comment utiliser les outils d’IA de manière sécurisée.

Il est également crucial de s’assurer qu’un outil choisi est intégré de manière efficace et que l’entreprise comprend quelles données elle peut accéder et à quelles fins. L’adoption officielle et l’intégration de copilotes d’IA est une manière de lutter contre l’utilisation d’IA souterraine. Les employés qui ne peuvent pas utiliser un copilote sanctionné peuvent se tourner vers un outil externe.

Ainsi, pour les entreprises, il ne s’agit pas seulement de rejoindre le train de l’IA, mais de comprendre si cela en vaut la peine – tant pour l’entreprise que pour les personnes qui l’utilisent.

Articles

Guide pratique pour une IA responsable pour les développeurs .NET

L'ère de l'intelligence artificielle (IA) est en cours, mais elle soulève des questions éthiques sur la confiance que l'on peut accorder aux systèmes d'IA. Cet article explore les six principes...

Directives du projet de loi sur l’IA de l’UE : évolutions en matière de droits d’auteur

Le projet de directive sur le Code de pratique de l'UE concernant les obligations des fournisseurs de modèles d'IA à usage général (GPAI) a été amélioré, offrant une voie de conformité structurée. Les...

Confiance client et conformité à l’ère de l’IA

L'intelligence artificielle promet une valeur considérable pour les marketeurs, mais cela ne sera possible que si elle est alimentée par des données de qualité collectées de manière responsable. Les...

L’IA au service de la gestion des risques dans le secteur bancaire

Dans le paysage bancaire complexe d'aujourd'hui, l'IA devient un moteur central de la gestion des risques, essentiel pour identifier les menaces et gérer la conformité. En Inde, où les attentes...

Loi californienne sur la transparence de l’IA : un tournant majeur pour l’innovation responsable

Les législateurs californiens ont fait les gros titres en adoptant une loi historique sur la transparence de l'IA, axée spécifiquement sur les "modèles de pointe". Cette législation vise à garantir la...

Bureau national de l’IA : autorité centrale pour la mise en œuvre de la législation européenne

Le gouvernement a désigné 15 autorités compétentes dans le cadre de la nouvelle loi sur l'IA de l'UE et a annoncé la création d'un Bureau national de l'IA d'ici le 2 août 2026. Ce bureau agira comme...

Défis de l’IA : Éviter les pièges juridiques et discriminatoires dans le recrutement

L'utilisation d'outils d'IA dans le processus de recrutement permet aux entreprises d'optimiser leurs processus, mais les employeurs doivent veiller à ce que les systèmes utilisés soient transparents...

Quatre piliers pour encadrer l’IA responsable dans les entreprises

Alors que l'IA générative transforme le fonctionnement des entreprises, il est crucial d'implémenter des garde-fous pour éviter des déploiements coûteux. Les quatre piliers de ces garde-fous incluent...

Concevoir une IA inclusive pour les marchés émergents

L'intelligence artificielle transforme notre monde à une vitesse fulgurante, mais ses bénéfices ne sont pas accessibles à tous. Il est crucial de concevoir des systèmes d'IA inclusifs qui tiennent...