L’Intelligence Artificielle Cachée : Un Défi pour les Entreprises

A locked box

IBM s’attaque à l’IA fantôme : un angle mort pour les entreprises

Avec l’explosion de l’utilisation de l’IA pour construire rapidement des applications au sein des entreprises, IBM a introduit des outils pour aider les organisations à gérer les systèmes et agents d’IA dont elles pourraient ne pas être conscientes.

IBM a récemment lancé ce qu’elle appelle le « premier logiciel de l’industrie pour unifier la gouvernance et la sécurité des agents », qui intègre watsonx.governance et Guardium AI Security pour aider les entreprises à sécuriser et à gérer leurs systèmes d’IA à grande échelle.

« Les agents IA sont en passe de révolutionner la productivité des entreprises, mais les avantages qu’ils apportent peuvent également poser des défis, » a déclaré un dirigeant d’IBM. « Lorsque ces systèmes autonomes ne sont pas correctement gouvernés ou sécurisés, ils peuvent entraîner des conséquences graves. »

Le défi de l’IA fantôme

À l’instar de son prédécesseur, l’IT fantôme, l’IA fantôme concerne des poches d’utilisation technologique non gouvernée à l’intérieur d’une organisation, dans ce cas, des systèmes d’IA. Cela représente un défi croissant à mesure que les outils d’IA deviennent plus accessibles, permettant aux employés de créer des systèmes autonomes avec peu d’expertise technique.

L’ampleur du problème

Une recherche récente montre que 60% des employés utilisent des outils d’IA non approuvés plus qu’il y a un an, avec 93% admettant avoir entré des informations dans des outils d’IA sans approbation. De plus, 32% des employés ont saisi des données confidentielles de clients sans confirmation d’approbation de l’entreprise.

Il existe également un décalage entre les dirigeants informatiques et les employés : 97% des décideurs IT voient des risques significatifs dans l’IA fantôme, mais 91% des employés perçoivent peu de risques ou croient que les bénéfices l’emportent sur les risques.

Pourquoi l’IA fantôme est différente

Les agents sont désormais plus à la portée des employés que même l’IA générative. Ils peuvent construire des agents en quelques jours via des applications commerciales.

Cette accessibilité distingue l’IA fantôme de l’IT fantôme. Alors que l’IT fantôme implique l’utilisation de logiciels ou services non autorisés, l’IA fantôme permet aux employés de créer des systèmes qui peuvent fonctionner avec peu de supervision humaine.

L’impact commercial

Les entreprises subissent des pressions de plusieurs angles. Une étude a révélé que 85% des décideurs IT rapportent que les employés adoptent des outils d’IA plus rapidement que leurs équipes IT ne peuvent les évaluer.

Les conséquences sont réelles : les décideurs IT identifient la fuite de données comme le principal risque de l’IA fantôme, affectant 63% des organisations. D’autres préoccupations incluent l’infraction à la propriété intellectuelle et les violations de conformité.

Le défi de la détection

Identifier l’IA fantôme nécessite des approches nouvelles. Les outils de surveillance traditionnels ne sont pas conçus pour détecter les agents IA qui pourraient être intégrés dans des applications commerciales ou fonctionner dans des environnements cloud.

IBM a introduit de nouvelles capacités à Guardium AI Security pour détecter de nouveaux cas d’utilisation d’IA dans les environnements cloud, fournissant une visibilité et une protection élargies dans un écosystème d’IA de plus en plus décentralisé.

Interdire l’utilisation d’IA non autorisée ?

La solution ne consiste pas simplement à interdire l’utilisation d’IA non autorisée. Les employés se tournent vers ces outils pour des gains de productivité légitimes, avec des tâches telles que la résumation de notes ou l’analyse de données.

« L’IA fantôme représente à la fois le plus grand risque de gouvernance et la plus grande opportunité stratégique pour l’entreprise, » a déclaré un directeur de recherche.

Transformer le défi en opportunité

Les organisations doivent passer d’une détection réactive à une gestion proactive. Cela implique d’intégrer les outils d’IA approuvés dans les flux de travail standard et d’établir des listes d’outils approuvés.

La route à suivre

À mesure que l’IA continue d’évoluer, l’IA fantôme deviendra probablement plus sophistiquée et plus difficile à détecter. L’émergence de l’IA agentique représente la prochaine frontière de ce défi.

La clé est d’établir des cadres de gouvernance complets qui peuvent évoluer avec l’adoption de l’IA, y compris des politiques claires, des détections automatisées, et l’éducation des employés.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...