Entretien exclusif : Naviguer dans les cadres de gouvernance de l’IA
Depuis peu, l’Intelligence Artificielle (IA) est devenue un moteur essentiel dans chaque secteur majeur. Toutefois, alors que l’IA gagne en puissance, les risques qui l’accompagnent se multiplient. Les entreprises doivent donc naviguer avec prudence dans ce paysage en constante évolution en matière de gestion des risques liés à l’IA.
L’IA : un moteur de changement et un amplificateur de risques
Il est crucial de reconnaître que l’IA offre une vitesse, une efficacité et des insights auparavant inimaginables. Cependant, ces avantages s’accompagnent de problèmes sérieux, tels que des défis en matière de vie privée, des préjugés intégrés, et un manque de responsabilité dans les décisions prises par des systèmes souvent incompréhensibles.
En abordant ces deux côtés, il est essentiel de comprendre que déployer l’IA sans traiter les risques, c’est jouer avec le feu. Le concept d’IA responsable ne se limite pas à prévenir les dommages ; il s’agit également de maintenir la confiance et la crédibilité.
Comprendre le cadre de gestion des risques de l’IA du NIST
Le cadre de gestion des risques de l’IA du NIST se distingue par son approche holistique. Contrairement à d’autres cadres qui offrent simplement une liste de contrôle, le NIST invite les organisations à réfléchir de manière globale. Les risques liés à l’IA ne sont pas toujours visibles ou mesurables de la même manière que d’autres risques technologiques.
La structure « Gouverner, Cartographier, Mesurer, Gérer » du NIST permet une flexibilité, favorisant ainsi une mentalité adaptable aux évolutions des systèmes et des risques.
La question de la confiance dans les cadres de gouvernance
La confiance est un thème central dans tous les cadres de gouvernance. Le NIST définit la confiance de manière opérationnelle, se concentrant sur sept domaines clés : équité, vie privée, résilience, et transparence. En appliquant le NIST, les organisations évaluent activement leur IA sur ces critères.
À l’inverse, l’ISO 42001 adopte une approche axée sur la gouvernance, mettant l’accent sur la manière dont les dirigeants intègrent les principes de confiance dans la culture, les politiques et les procédures. Les deux cadres sont complémentaires, mais chacun opère à des niveaux différents au sein de l’organisation.
Les obstacles à l’adoption de l’ISO 42001
Un des plus grands obstacles à l’adoption de l’ISO 42001 est l’inertie des dirigeants. De nombreux leaders considèrent que la gouvernance de l’IA est une tâche à confier à l’équipe informatique ou aux data scientists. Pourtant, l’ISO 42001 stipule clairement que les dirigeants doivent prendre les rênes. Ils sont responsables de définir la direction éthique, d’approuver les budgets pour la surveillance de l’IA et d’assigner des responsabilités.
L’importance du contexte dans la gestion des risques de l’IA
Le contexte est essentiel. Les systèmes d’IA ne fonctionnent pas en isolation ; ils évoluent dans des environnements réels remplis de lois, de normes et de valeurs. Ce qui est considéré comme équitable dans une application bancaire peut être totalement inapproprié dans le secteur de la santé. L’ISO 42001 encourage les organisations à analyser attentivement leur environnement, en prenant en compte les attentes des clients, les lois régionales et même l’attention médiatique.
Les implications de l’EU AI Act
Le EU AI Act ne se limite pas à des suggestions ; c’est une loi qui impose des conséquences. Si votre système d’IA est classé comme « à haut risque », vous devez respecter des obligations détaillées, allant de la documentation aux audits et à la supervision humaine. Les zones de réglementation permettent aux développeurs de tester des IA à haut risque sous supervision sans enfreindre les règles, et l’acte a une portée extraterritoriale, obligeant également les entreprises hors de l’UE à se conformer si elles touchent le marché européen.
Choisir le bon cadre de gouvernance
Il n’existe pas de cadre « meilleur » parmi les trois ; tout dépend du contexte et des objectifs de l’organisation. Le NIST est excellent pour sensibiliser et débuter les efforts de gouvernance, surtout pour les entreprises basées aux États-Unis. L’ISO 42001 est idéal pour une échelle mondiale, tandis que l’EU AI Act est incontournable pour les opérations en Europe.
En réalité, de nombreuses organisations adoptent une combinaison de ces cadres, empruntant des éléments qui correspondent à leur maturité opérationnelle, leur exposition au marché et leur tolérance au risque.
Personnalisation des profils de risque
La personnalisation des « profils » est une approche qui permet aux organisations de créer une feuille de route adaptée à leur parcours unique. Par exemple, un hôpital utilisant une IA diagnostique aura besoin de contrôles différents d’une entreprise de vente au détail utilisant l’IA pour la segmentation de la clientèle.
Le NIST permet aux organisations de construire ces profils en fonction de leur cas d’utilisation, de leur modèle de menace et de leurs objectifs. Cela garantit que les contrôles appliqués sont pertinents et adaptés.
Équilibrer explicabilité et performance
La question de l’équilibre entre explicabilité et performance est délicate. Certains modèles d’IA, comme les réseaux neuronaux profonds, offrent une grande précision mais sont difficiles à expliquer. Cependant, dans des contextes critiques, comme le scoring de crédit ou les soins de santé, il est inacceptable de dire « faites confiance aux chiffres ». L’EU AI Act impose un droit à l’explication, ce qui oblige les organisations à choisir des modèles plus transparents ou à ajouter une couche d’interprétabilité.
Intégration des plans de traitement des risques avec les systèmes existants
L’intégration est essentielle. De nombreuses entreprises possèdent déjà des systèmes pour gérer la cybersécurité, la confidentialité des données et la conformité. L’objectif est d’éviter de réinventer la roue tout en l’élargissant. En utilisant les contrôles de l’ISO 27001 comme point de départ, les entreprises peuvent ajouter des couches spécifiques à l’IA, garantissant ainsi que le cadre de gouvernance reste cohérent.
Conclusion : l’importance de l’élément humain
Un aspect souvent négligé dans la gestion des risques de l’IA est le facteur humain. Il est facile de se concentrer sur les modèles, les données et les algorithmes. Pourtant, rien de tout cela n’a de valeur si les gens ne font pas confiance au système ou, pire, ne le comprennent pas. Il est impératif de former les équipes à la prise de décision éthique et d’impliquer des voix diverses durant le développement.
Construire une culture de confiance et d’interaction est aussi crucial que de développer le code. La gestion responsable de l’IA commence bien avant le déploiement du système ; elle débute avec les personnes, les processus et les objectifs.