L’essor de l’IA clandestine et la nécessité d’une gouvernance agile

A traffic light

La montée en puissance de l’IA non supervisée : un besoin urgent de gouvernance

La génération d’IA (GenAI) est désormais profondément intégrée dans le fonctionnement des entreprises, souvent sans que les responsables en aient conscience. Les équipes de vente l’utilisent pour rédiger des e-mails, les ingénieurs la mettent à profit pour générer et tester du code, et les spécialistes du marketing s’appuient sur elle pour la rédaction de contenu et l’idéation de campagnes. Cette adoption se fait souvent sans approbation formelle, supervision ou contrôle.

C’est ce qu’on appelle l’ IA non supervisée ou Shadow AI : l’utilisation non approuvée et non surveillée des outils GenAI qui échappe souvent à la surveillance. À l’instar de l’ IT non supervisé, la visibilité est cruciale pour les équipes de sécurité afin d’obtenir des informations sur les outils GenAI utilisés, leurs applications et les utilisateurs présentant le plus grand risque.

Cette situation n’est pas motivée par de mauvaises intentions. Les utilisateurs se tournent vers ces outils pour de bonnes raisons. Il s’agit simplement d’un cas où la vitesse dépasse la supervision. Ces outils sont facilement accessibles, rapides à déployer et incroyablement productifs, mais leur surveillance s’avère difficile. Dans la plupart des cas, il n’existe pas de trace d’audit à suivre lorsqu’un problème survient.

Les chiffres parlent d’eux-mêmes

Un rapport récent de Palo Alto Networks intitulé « L’état de l’IA générative » a révélé que le trafic GenAI avait augmenté de 890%. Une enquête séparée menée auprès d’équipes juridiques européennes a montré que, bien que plus de 90% des entreprises utilisent des outils d’IA, seulement 18% ont mis en place une forme de gouvernance formelle.

Les problèmes commencent souvent dans les interstices entre la technologie en rapide évolution et la gouvernance lente. En l’absence de règles et de politiques claires, il existe un risque d’exposition de données sensibles, d’automatisation de décisions sans supervision et de création de zones d’ombre dans l’utilisation de l’IA générative.

Les entreprises doivent donc établir une politique GenAI pour garantir leur sécurité en matière de réglementation, de conformité et de sécurité. Si GenAI fait déjà partie intégrante de votre fonctionnement (et c’est probablement le cas), vous avez besoin de barrières et d’une application des politiques claires concernant ce qui est permis, ce qui ne l’est pas et qui est responsable de l’application.

Qu’est-ce qu’une politique GenAI efficace devrait imposer ?

Une politique GenAI ne doit pas ralentir les choses. Elle doit simplement garantir que les outils sur lesquels vos équipes s’appuient peuvent être dignes de confiance, surtout lorsque les outils commencent à prendre des décisions, à déplacer des données ou à agir au nom de l’entreprise. Les politiques devraient couvrir six domaines clés :

1. Approbation des chatbots GenAI et des applications tierces

Aucun outil GenAI ne devrait être approuvé sans un examen approprié. Cela signifie qu’il faut examiner de près ce que l’outil fait réellement, comment il se connecte à vos systèmes, qui l’a créé et comment il gère vos données – qu’il s’agisse d’un chatbot, d’un plug-in ou d’une application tierce.

2. Inventaire des applications GenAI et attribution des responsabilités

Il est difficile de sécuriser ce que l’on ne suit pas. Chaque système GenAI utilisé – interne ou externe – doit être enregistré dans un inventaire central. Et une personne doit en être responsable avec une propriété claire qui ne devrait pas être vague ou partagée.

3. Contrôles d’accès et gestion des autorisations

Les chatbots ou outils GenAI devraient suivre les mêmes règles d’accès que tout autre outil. Cela signifie limiter ce que les outils et agents peuvent voir ou faire, en fonction de leurs rôles, et revoir régulièrement ces autorisations pour évaluer qui peut accéder à quel contenu.

4. Journaux et traces d’audit

Si quelque chose tourne mal, vous devez savoir ce qui s’est passé. C’est pourquoi l’une des parties clés de l’IA non supervisée est de consigner les interactions GenAI, à travers tous les flux de données pour les entrées et les sorties, et d’alerter les administrateurs en cas de comportement à risque.

5. Tests et simulations

On ne doit pas supposer que les systèmes GenAI fonctionneront comme prévu. Ils doivent être testés avant leur déploiement et de manière continue. Cela inclut des simulations et des vérifications pour détecter des vulnérabilités spécifiques liées à l’IA générative et aux menaces telles que l’injection de requêtes, la protection des données ou le respect des régulations de sécurité.

6. Application des règles d’utilisation de l’IA générative

Les politiques ne sont pas utiles à moins qu’elles ne soient appliquées. Les barrières qui dictent quels outils un agent peut utiliser, quel type de données il peut extraire, ou quand il a besoin d’une validation humaine doivent être intégrées dans le système.

Bien sûr, énumérer ce qu’une politique devrait inclure est la partie facile. S’assurer que ces règles sont appliquées est là où la plupart des organisations rencontrent des difficultés.

Construire la bonne politique GenAI dès le premier jour

Écrire une politique est une chose. La rendre effective en est une autre. De nombreuses organisations ont publié des directives sur l’IA générative. Moins nombreuses sont celles qui ont développé la muscle de gouvernance nécessaire pour les appliquer de manière cohérente, à travers les équipes, les outils et les cas d’utilisation en évolution. Trop d’organisations ont des politiques GenAI dans des documents que personne ne lit, ou qui semblent claires en théorie mais s’effondrent lorsqu’elles sont appliquées aux workflows réels, aux processus de déploiement ou aux outils de développement. Cet échec découle d’un manque de connexion entre ce que dit la politique et la façon dont les gens travaillent réellement. Entre les règles et les systèmes censés les appliquer, et entre la propriété et la responsabilité.

Faire fonctionner une politique GenAI signifie la transformer en quelque chose d’opérationnel. Cela inclut les bons contrôles, la bonne visibilité et les bonnes personnes tenues responsables de la mise à jour de la politique. Car une fois que l’IA générative est intégrée dans votre entreprise, la politique n’est pas le point de départ, c’est le filet de sécurité. Et si ce filet n’est pas en place lorsque quelque chose tourne mal, il est déjà trop tard.

Articles

L’illusion de l’IA : Quand la rapidité mène à la négligence

Dans un monde obsédé par des résultats plus rapides et moins chers, l'IA a rendu le concept de « suffisant » très tentant en matière de conformité. Cependant, la conformité n'est pas une course...

Nouveau Code de Pratique pour l’IA Générale en Europe

Le 10 juillet 2025, la Commission européenne a publié la version finale du Code de pratique sur l'IA à usage général, trois semaines avant l'entrée en vigueur des obligations relatives aux modèles...

Code de conformité de l’UE pour l’IA : une nouvelle ère pour les entreprises

L'Union européenne a publié un nouveau code de pratique volontaire pour aider les entreprises à se conformer à la prochaine loi sur l'IA, qui régira l'utilisation de l'IA dans les 27 États membres. Ce...

Responsabilité et transparence : repenser l’approvisionnement en IA dans les gouvernements

En 2018, le public a appris que le département de police de la Nouvelle-Orléans utilisait un logiciel de police prédictive de Palantir pour décider où envoyer des agents. Cette situation a mis en...

Cadre SAIL : La nouvelle référence en sécurité pour l’IA

Pillar Security a codifié un cadre de sécurité AI qui représente une avancée significative dans les efforts de l'industrie pour assurer des opérations sécurisées pour l'IA. Ce cadre, connu sous le nom...

Gouvernance de l’IA : Tokio Marine fixe les règles du jeu

Tokio Marine Holdings a introduit un cadre de gouvernance de l'IA pour guider le développement et l'utilisation de l'intelligence artificielle au sein de ses entreprises. La politique met l'accent sur...

L’essor de l’IA clandestine et la nécessité d’une gouvernance agile

L'intelligence artificielle générative (GenAI) est déjà profondément intégrée dans les entreprises, souvent sans approbation ni contrôle formel. Cela a conduit à ce que l'on appelle l'IA de l'ombre...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...