Ce à quoi ressemble la gouvernance de l’IA dans l’économie de la confiance zéro
Nous avons atteint un moment charnière en 2025. L’année dernière, l’IA n’était qu’un simple sujet de discussion, résonnant dans les salles de réunion et les cercles politiques ; cette année, nous l’avons vue en action, prouvant sa valeur dans le monde réel. Que ce soit sur les chaînes de production, sur les chantiers de construction, dans les services urbains ou même à travers les infrastructures réseau, son application s’accompagne d’une urgence parallèle : la gouvernance. Les systèmes qui façonneront demain nécessitent un cadre aussi rigoureux que les applications qu’ils alimentent. Dans une époque où l’état d’esprit par défaut des consommateurs, des entreprises et des régulateurs est « ne jamais faire confiance, toujours vérifier », la gouvernance de l’IA et de toute autre technologie émergente doit s’aligner sur les règles de cette économie de confiance zéro.
Définir la gouvernance dans une économie de confiance zéro
Selon Saad Toma, Directeur Général d’IBM pour le Moyen-Orient et l’Afrique, une gouvernance efficace n’est pas seulement une question de surveillance — c’est un moteur de confiance. La gouvernance de l’IA est « les règles et les cadres qui guident la recherche, la construction et le déploiement des modèles en fonction de ce qui compte vraiment pour votre organisation ». En d’autres termes, la gouvernance garantit que l’innovation n’est pas séparée des valeurs et que les systèmes d’IA sont tenus responsables à mesure qu’ils se développent.
Il le formule comme le point « où l’éthique rencontre l’exécution ». Cela signifie intégrer des principes tels que la transparence, l’explicabilité et la provenance dans chaque initiative d’IA. La transparence élimine l’opacité des systèmes en boîte noire ; l’explicabilité garantit que les décisions peuvent être comprises et mises en œuvre ; et la provenance vérifie que les données sous-jacentes à un modèle sont fiables et éthiquement sourcées. Ces garde-fous intégrés font de la gouvernance un exercice de conformité.
Ce type de gouvernance sera d’autant plus impactant s’il fonctionne en parallèle avec l’idéologie de la confiance zéro. Tout comme les équipes de sécurité ont évolué d’une présomption de sécurité des utilisateurs ou des appareils à une vérification continue, la gouvernance de l’IA doit faire de même tout au long du cycle de vie du modèle. « La confiance zéro repose sur une vérité simple : ne jamais assumer, toujours vérifier. L’IA augmente les enjeux, car les modèles ne sont plus statiques. Ils apprennent, s’adaptent et, dans le cas d’agents, peuvent agir avec une autonomie croissante », explique Toma.
Remplir les lacunes
Une étude récente révèle que 77 % des dirigeants croient fermement que l’IA générative (GenAI) est non seulement prête pour le marché, mais aussi une nécessité pour rester compétitif. Cependant, seulement 21 % d’entre eux estiment que leur maturité en matière de gouvernance est suffisamment avancée pour suivre. « Ce décalage montre pourquoi la gouvernance doit passer d’une simple case à cocher à une stratégie de résilience, une stratégie qui mérite la confiance et qui peut évoluer en toute sécurité », déclare Toma.
Ce décalage reflète un schéma plus large : les entreprises se précipitent pour sauter sur le train de l’adoption de l’IA, tandis que les garde-fous sont sous-développés ou encore en cours de développement. Le rapport de McKinsey sur l’État de l’IA souligne le même problème, constatant que, bien que l’adoption augmente dans tous les secteurs, moins d’une entreprise sur cinq intègre des pratiques systématiques de gestion des risques dans ses flux de travail d’IA. Dans une économie de confiance zéro, c’est une contradiction dangereuse.
Les risques ne sont pas théoriques. Comme l’explique Toma, « l’IA augmente les enjeux, car les modèles ne sont plus statiques. L’autonomie croissante ouvre la porte à des vulnérabilités — de l’empoisonnement des données et de l’injection de requêtes à la montée de l’IA cachée, où les employés expérimentent avec des outils non autorisés en dehors de la supervision de l’informatique ». Si ces risques ne sont pas surveillés, ils menacent non seulement la conformité, mais aussi la confiance même que les entreprises tentent de bâtir.
La gouvernance comme facilitateurs, pas comme frein
La conversation autour de la gouvernance la dépeint souvent comme un frein à l’innovation, mais la réalité est l’opposée : la surveillance permet une échelle. Toma explique que lorsque la gouvernance est intégrée dans chaque projet d’IA, « l’automatisation peut offrir une productivité à grande échelle ». Il cite l’expérience d’IBM, où leurs assistants autonomes comme AskIT — formés en seulement 100 jours, peuvent maintenant résoudre 80 % de leurs problèmes informatiques, économisant ainsi 18 millions de dollars en coûts de support. De même, AskHR aide les managers dans plus de 90 000 transferts d’employés annuels et a réduit le taux d’erreur de 14 % à zéro. Ces résultats, souligne-t-il, « ne se produisent pas sans une surveillance robuste ». La gouvernance est ce qui permet à l’innovation d’être à la fois rapide et fiable.
Des initiatives comme le sceau d’IA de Dubaï — une certification garantissant que les systèmes d’IA sont sûrs, fiables et transparents — et le déploiement par l’Arabie Saoudite du modèle de langage arabe ALLaM sur DEEM Cloud montrent comment la gouvernance est liée aux ambitions nationales pour la confiance numérique.
Le rôle de la gouvernance comme facilitateur s’étend au-delà de l’entreprise. Des partenariats régionaux démontrent comment la gouvernance peut renforcer les écosystèmes. Au Moyen-Orient, la collaboration d’IBM avec e& a introduit un cadre de gouvernance de bout en bout conçu pour surveiller les cas d’utilisation de l’IA en temps réel.
À l’échelle mondiale, Toma cite l’Alliance pour les données et la confiance, où des normes intersectorielles sur la provenance des données ont réduit le temps d’approbation des modèles fondamentaux de plus de la moitié, et l’Alliance mondiale pour l’IA, qui regroupe plus de 75 membres, d’AMD à la NASA en passant par MBZUAI.
« En mettant en commun des ressources et des connaissances, l’Alliance façonne un cadre de gouvernance mondial ancré dans la transparence, la rigueur scientifique et la responsabilité », ajoute-t-il. Ces efforts signifient que la gouvernance peut accélérer, et non retarder, l’innovation.
Leadership et perspectives d’avenir
Nous avons établi que la gouvernance n’est plus une fonction de back-office. À mesure que les systèmes d’IA deviennent plus autonomes, la responsabilité doit se situer au plus haut niveau de l’organisation. Toma souligne un changement décisif : « Le véritable changement que nous observons est la montée du responsable de l’IA (Chief AI Officer). Notre étude avec la Dubai Future Foundation a révélé que 33 % des organisations des Émirats Arabes Unis ont déjà un CAIO, dépassant la moyenne mondiale de 26 %. Lorsque les CAIO sont dotés de modèles d’exploitation centralisés ou de type hub-and-spoke, les entreprises réalisent jusqu’à 36 % de retour sur investissement en plus sur les initiatives d’IA. »
En d’autres termes, la gouvernance est indissociable du leadership lui-même. Cela signale une nouvelle réalité pour les DSI et les RSSI également. Les 12 à 18 mois à venir seront critiques, et l’accent doit passer des principes à la pratique.
Toma insiste sur le fait que les dirigeants doivent « faire de la gouvernance un mandat exécutif, avec une responsabilité claire pour les résultats ». Cela signifie donner aux rôles puissants comme le CAIO les ressources nécessaires pour intégrer la gouvernance à chaque étape du cycle de vie de l’IA, tout en cultivant la bonne culture : des équipes diverses et pluridisciplinaires, la sécurité psychologique pour des conversations difficiles et la littératie en IA à travers l’entreprise.
Dans une économie de confiance zéro, où « ne jamais faire confiance, toujours vérifier » est le mantra, la gouvernance n’est plus seulement un filet de sécurité — c’est aussi le moteur de la croissance. Comme le rappelle Toma, avec la gouvernance en place, « les entreprises peuvent déployer l’IA avec rapidité et confiance, garantissant que l’innovation offre à la fois résilience et retour sur investissement mesurable ».
Nous avons commencé avec l’idée d’un cercle complet. En 2025, ce cercle s’est élargi. Le consommateur moyen est devenu plus intelligent, plus conscient des systèmes qui façonnent sa vie quotidienne — et l’IA a également évolué, passant de modèles statiques à des acteurs adaptatifs et autonomes. C’est un parallèle à retenir : l’IA reste un produit de l’intelligence humaine. Les cadres que nous établissons aujourd’hui détermineront si cette intelligence augmente le progrès humain ou l’entrave.
En fin de compte, la gouvernance est plus qu’un cadre. C’est la licence d’opérer à une époque où l’intelligence humaine et artificielle avancent côte à côte — chacune exigeant confiance, chacune nécessitant vérification, et chacune façonnant le monde que nous habiterons demain.