IBM s’attaque à l’IA fantôme : un angle mort pour les entreprises
Avec l’explosion de l’utilisation de l’IA pour construire rapidement des applications au sein des entreprises, IBM a introduit des outils pour aider les organisations à gérer les systèmes et agents d’IA dont elles pourraient ne pas être conscientes.
IBM a récemment lancé ce qu’elle appelle le « premier logiciel de l’industrie pour unifier la gouvernance et la sécurité des agents », qui intègre watsonx.governance et Guardium AI Security pour aider les entreprises à sécuriser et à gérer leurs systèmes d’IA à grande échelle.
« Les agents IA sont en passe de révolutionner la productivité des entreprises, mais les avantages qu’ils apportent peuvent également poser des défis, » a déclaré un dirigeant d’IBM. « Lorsque ces systèmes autonomes ne sont pas correctement gouvernés ou sécurisés, ils peuvent entraîner des conséquences graves. »
Le défi de l’IA fantôme
À l’instar de son prédécesseur, l’IT fantôme, l’IA fantôme concerne des poches d’utilisation technologique non gouvernée à l’intérieur d’une organisation, dans ce cas, des systèmes d’IA. Cela représente un défi croissant à mesure que les outils d’IA deviennent plus accessibles, permettant aux employés de créer des systèmes autonomes avec peu d’expertise technique.
L’ampleur du problème
Une recherche récente montre que 60% des employés utilisent des outils d’IA non approuvés plus qu’il y a un an, avec 93% admettant avoir entré des informations dans des outils d’IA sans approbation. De plus, 32% des employés ont saisi des données confidentielles de clients sans confirmation d’approbation de l’entreprise.
Il existe également un décalage entre les dirigeants informatiques et les employés : 97% des décideurs IT voient des risques significatifs dans l’IA fantôme, mais 91% des employés perçoivent peu de risques ou croient que les bénéfices l’emportent sur les risques.
Pourquoi l’IA fantôme est différente
Les agents sont désormais plus à la portée des employés que même l’IA générative. Ils peuvent construire des agents en quelques jours via des applications commerciales.
Cette accessibilité distingue l’IA fantôme de l’IT fantôme. Alors que l’IT fantôme implique l’utilisation de logiciels ou services non autorisés, l’IA fantôme permet aux employés de créer des systèmes qui peuvent fonctionner avec peu de supervision humaine.
L’impact commercial
Les entreprises subissent des pressions de plusieurs angles. Une étude a révélé que 85% des décideurs IT rapportent que les employés adoptent des outils d’IA plus rapidement que leurs équipes IT ne peuvent les évaluer.
Les conséquences sont réelles : les décideurs IT identifient la fuite de données comme le principal risque de l’IA fantôme, affectant 63% des organisations. D’autres préoccupations incluent l’infraction à la propriété intellectuelle et les violations de conformité.
Le défi de la détection
Identifier l’IA fantôme nécessite des approches nouvelles. Les outils de surveillance traditionnels ne sont pas conçus pour détecter les agents IA qui pourraient être intégrés dans des applications commerciales ou fonctionner dans des environnements cloud.
IBM a introduit de nouvelles capacités à Guardium AI Security pour détecter de nouveaux cas d’utilisation d’IA dans les environnements cloud, fournissant une visibilité et une protection élargies dans un écosystème d’IA de plus en plus décentralisé.
Interdire l’utilisation d’IA non autorisée ?
La solution ne consiste pas simplement à interdire l’utilisation d’IA non autorisée. Les employés se tournent vers ces outils pour des gains de productivité légitimes, avec des tâches telles que la résumation de notes ou l’analyse de données.
« L’IA fantôme représente à la fois le plus grand risque de gouvernance et la plus grande opportunité stratégique pour l’entreprise, » a déclaré un directeur de recherche.
Transformer le défi en opportunité
Les organisations doivent passer d’une détection réactive à une gestion proactive. Cela implique d’intégrer les outils d’IA approuvés dans les flux de travail standard et d’établir des listes d’outils approuvés.
La route à suivre
À mesure que l’IA continue d’évoluer, l’IA fantôme deviendra probablement plus sophistiquée et plus difficile à détecter. L’émergence de l’IA agentique représente la prochaine frontière de ce défi.
La clé est d’établir des cadres de gouvernance complets qui peuvent évoluer avec l’adoption de l’IA, y compris des politiques claires, des détections automatisées, et l’éducation des employés.