L’Intelligence Artificielle Cachée : Un Défi pour les Entreprises

A locked box

IBM s’attaque à l’IA fantôme : un angle mort pour les entreprises

Avec l’explosion de l’utilisation de l’IA pour construire rapidement des applications au sein des entreprises, IBM a introduit des outils pour aider les organisations à gérer les systèmes et agents d’IA dont elles pourraient ne pas être conscientes.

IBM a récemment lancé ce qu’elle appelle le « premier logiciel de l’industrie pour unifier la gouvernance et la sécurité des agents », qui intègre watsonx.governance et Guardium AI Security pour aider les entreprises à sécuriser et à gérer leurs systèmes d’IA à grande échelle.

« Les agents IA sont en passe de révolutionner la productivité des entreprises, mais les avantages qu’ils apportent peuvent également poser des défis, » a déclaré un dirigeant d’IBM. « Lorsque ces systèmes autonomes ne sont pas correctement gouvernés ou sécurisés, ils peuvent entraîner des conséquences graves. »

Le défi de l’IA fantôme

À l’instar de son prédécesseur, l’IT fantôme, l’IA fantôme concerne des poches d’utilisation technologique non gouvernée à l’intérieur d’une organisation, dans ce cas, des systèmes d’IA. Cela représente un défi croissant à mesure que les outils d’IA deviennent plus accessibles, permettant aux employés de créer des systèmes autonomes avec peu d’expertise technique.

L’ampleur du problème

Une recherche récente montre que 60% des employés utilisent des outils d’IA non approuvés plus qu’il y a un an, avec 93% admettant avoir entré des informations dans des outils d’IA sans approbation. De plus, 32% des employés ont saisi des données confidentielles de clients sans confirmation d’approbation de l’entreprise.

Il existe également un décalage entre les dirigeants informatiques et les employés : 97% des décideurs IT voient des risques significatifs dans l’IA fantôme, mais 91% des employés perçoivent peu de risques ou croient que les bénéfices l’emportent sur les risques.

Pourquoi l’IA fantôme est différente

Les agents sont désormais plus à la portée des employés que même l’IA générative. Ils peuvent construire des agents en quelques jours via des applications commerciales.

Cette accessibilité distingue l’IA fantôme de l’IT fantôme. Alors que l’IT fantôme implique l’utilisation de logiciels ou services non autorisés, l’IA fantôme permet aux employés de créer des systèmes qui peuvent fonctionner avec peu de supervision humaine.

L’impact commercial

Les entreprises subissent des pressions de plusieurs angles. Une étude a révélé que 85% des décideurs IT rapportent que les employés adoptent des outils d’IA plus rapidement que leurs équipes IT ne peuvent les évaluer.

Les conséquences sont réelles : les décideurs IT identifient la fuite de données comme le principal risque de l’IA fantôme, affectant 63% des organisations. D’autres préoccupations incluent l’infraction à la propriété intellectuelle et les violations de conformité.

Le défi de la détection

Identifier l’IA fantôme nécessite des approches nouvelles. Les outils de surveillance traditionnels ne sont pas conçus pour détecter les agents IA qui pourraient être intégrés dans des applications commerciales ou fonctionner dans des environnements cloud.

IBM a introduit de nouvelles capacités à Guardium AI Security pour détecter de nouveaux cas d’utilisation d’IA dans les environnements cloud, fournissant une visibilité et une protection élargies dans un écosystème d’IA de plus en plus décentralisé.

Interdire l’utilisation d’IA non autorisée ?

La solution ne consiste pas simplement à interdire l’utilisation d’IA non autorisée. Les employés se tournent vers ces outils pour des gains de productivité légitimes, avec des tâches telles que la résumation de notes ou l’analyse de données.

« L’IA fantôme représente à la fois le plus grand risque de gouvernance et la plus grande opportunité stratégique pour l’entreprise, » a déclaré un directeur de recherche.

Transformer le défi en opportunité

Les organisations doivent passer d’une détection réactive à une gestion proactive. Cela implique d’intégrer les outils d’IA approuvés dans les flux de travail standard et d’établir des listes d’outils approuvés.

La route à suivre

À mesure que l’IA continue d’évoluer, l’IA fantôme deviendra probablement plus sophistiquée et plus difficile à détecter. L’émergence de l’IA agentique représente la prochaine frontière de ce défi.

La clé est d’établir des cadres de gouvernance complets qui peuvent évoluer avec l’adoption de l’IA, y compris des politiques claires, des détections automatisées, et l’éducation des employés.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...