Qui possède la gouvernance et le risque de l’IA ?
Lorsque la décision prise par une IA produit un résultat que personne n’est à l’aise de défendre, quelque chose de révélateur se produit au sein des organisations. Les conversations se déplacent rapidement de ce que le système a recommandé vers qui l’a approuvé, qui s’y est fié et qui est finalement responsable des conséquences. À ce moment-là, la technologie s’efface au second plan, et les questions de propriété passent au premier plan.
Redéfinition de la responsabilité
Alors que les systèmes d’IA commencent à influencer des décisions de crédit, des interactions avec les clients, des choix de recrutement et des priorités opérationnelles, ils redéfinissent discrètement la manière dont la responsabilité est distribuée. Les décisions portent toujours des conséquences, mais la chaîne de responsabilité n’est plus évidente. Lorsque les résultats sont positifs, l’IA est créditée d’efficacité et d’insight. Lorsque ce n’est pas le cas, la responsabilité devient plus difficile à localiser.
Ambiguïté intentionnelle
Dans de nombreuses organisations, cette ambiguïté n’est pas accidentelle. Les initiatives d’IA sont souvent introduites comme des améliorations techniques plutôt que comme des systèmes organisationnels. La responsabilité est partagée entre les équipes informatiques, les fournisseurs externes, les unités commerciales et les fonctions de conformité, sans qu’aucun groupe ne soit clairement responsable des résultats. Pendant un certain temps, cela a fonctionné. Les premiers résultats semblent prometteurs et les questions difficiles peuvent être reportées. La recherche et notre expérience suggèrent que c’est précisément à ce moment que le risque s’accumule.
Échec de la gouvernance
Une récente revue systématique de la recherche sur la gouvernance de l’IA a examiné comment les organisations attribuent la responsabilité des décisions et des risques liés à l’IA. Les auteurs ont trouvé un schéma récurrent : les échecs de gouvernance ne proviennent que rarement d’algorithmes défectueux. Ils surviennent plutôt parce que la propriété de la prise de décision et du risque est floue. Les responsabilités sont fragmentées, les voies d’escalade sont faibles, et les mécanismes de gouvernance sont souvent introduits seulement après qu’un problème se soit produit. En effet, les organisations adoptent l’IA plus rapidement qu’elles ne décident qui est responsable de ses conséquences.
Une gouvernance efficace
Il est important de ne pas devenir trop sceptique quant à la gouvernance de l’IA. La gouvernance ne freine pas l’innovation. Les organisations qui définissent la propriété tôt sont mieux à même de faire évoluer l’IA en toute confiance. Elles savent qui peut intervenir, comment les risques sont mis en lumière et comment l’apprentissage se produit lorsque les systèmes échouent ou sont contournés. La gouvernance devient un facilitateur de performance, et non une contrainte.