L’intelligence artificielle : enjeux et cadres de gouvernance

A bridge

Entretien exclusif : Naviguer dans les cadres de gouvernance de l’IA

Depuis peu, l’Intelligence Artificielle (IA) est devenue un moteur essentiel dans chaque secteur majeur. Toutefois, alors que l’IA gagne en puissance, les risques qui l’accompagnent se multiplient. Les entreprises doivent donc naviguer avec prudence dans ce paysage en constante évolution en matière de gestion des risques liés à l’IA.

L’IA : un moteur de changement et un amplificateur de risques

Il est crucial de reconnaître que l’IA offre une vitesse, une efficacité et des insights auparavant inimaginables. Cependant, ces avantages s’accompagnent de problèmes sérieux, tels que des défis en matière de vie privée, des préjugés intégrés, et un manque de responsabilité dans les décisions prises par des systèmes souvent incompréhensibles.

En abordant ces deux côtés, il est essentiel de comprendre que déployer l’IA sans traiter les risques, c’est jouer avec le feu. Le concept d’IA responsable ne se limite pas à prévenir les dommages ; il s’agit également de maintenir la confiance et la crédibilité.

Comprendre le cadre de gestion des risques de l’IA du NIST

Le cadre de gestion des risques de l’IA du NIST se distingue par son approche holistique. Contrairement à d’autres cadres qui offrent simplement une liste de contrôle, le NIST invite les organisations à réfléchir de manière globale. Les risques liés à l’IA ne sont pas toujours visibles ou mesurables de la même manière que d’autres risques technologiques.

La structure « Gouverner, Cartographier, Mesurer, Gérer » du NIST permet une flexibilité, favorisant ainsi une mentalité adaptable aux évolutions des systèmes et des risques.

La question de la confiance dans les cadres de gouvernance

La confiance est un thème central dans tous les cadres de gouvernance. Le NIST définit la confiance de manière opérationnelle, se concentrant sur sept domaines clés : équité, vie privée, résilience, et transparence. En appliquant le NIST, les organisations évaluent activement leur IA sur ces critères.

À l’inverse, l’ISO 42001 adopte une approche axée sur la gouvernance, mettant l’accent sur la manière dont les dirigeants intègrent les principes de confiance dans la culture, les politiques et les procédures. Les deux cadres sont complémentaires, mais chacun opère à des niveaux différents au sein de l’organisation.

Les obstacles à l’adoption de l’ISO 42001

Un des plus grands obstacles à l’adoption de l’ISO 42001 est l’inertie des dirigeants. De nombreux leaders considèrent que la gouvernance de l’IA est une tâche à confier à l’équipe informatique ou aux data scientists. Pourtant, l’ISO 42001 stipule clairement que les dirigeants doivent prendre les rênes. Ils sont responsables de définir la direction éthique, d’approuver les budgets pour la surveillance de l’IA et d’assigner des responsabilités.

L’importance du contexte dans la gestion des risques de l’IA

Le contexte est essentiel. Les systèmes d’IA ne fonctionnent pas en isolation ; ils évoluent dans des environnements réels remplis de lois, de normes et de valeurs. Ce qui est considéré comme équitable dans une application bancaire peut être totalement inapproprié dans le secteur de la santé. L’ISO 42001 encourage les organisations à analyser attentivement leur environnement, en prenant en compte les attentes des clients, les lois régionales et même l’attention médiatique.

Les implications de l’EU AI Act

Le EU AI Act ne se limite pas à des suggestions ; c’est une loi qui impose des conséquences. Si votre système d’IA est classé comme « à haut risque », vous devez respecter des obligations détaillées, allant de la documentation aux audits et à la supervision humaine. Les zones de réglementation permettent aux développeurs de tester des IA à haut risque sous supervision sans enfreindre les règles, et l’acte a une portée extraterritoriale, obligeant également les entreprises hors de l’UE à se conformer si elles touchent le marché européen.

Choisir le bon cadre de gouvernance

Il n’existe pas de cadre « meilleur » parmi les trois ; tout dépend du contexte et des objectifs de l’organisation. Le NIST est excellent pour sensibiliser et débuter les efforts de gouvernance, surtout pour les entreprises basées aux États-Unis. L’ISO 42001 est idéal pour une échelle mondiale, tandis que l’EU AI Act est incontournable pour les opérations en Europe.

En réalité, de nombreuses organisations adoptent une combinaison de ces cadres, empruntant des éléments qui correspondent à leur maturité opérationnelle, leur exposition au marché et leur tolérance au risque.

Personnalisation des profils de risque

La personnalisation des « profils » est une approche qui permet aux organisations de créer une feuille de route adaptée à leur parcours unique. Par exemple, un hôpital utilisant une IA diagnostique aura besoin de contrôles différents d’une entreprise de vente au détail utilisant l’IA pour la segmentation de la clientèle.

Le NIST permet aux organisations de construire ces profils en fonction de leur cas d’utilisation, de leur modèle de menace et de leurs objectifs. Cela garantit que les contrôles appliqués sont pertinents et adaptés.

Équilibrer explicabilité et performance

La question de l’équilibre entre explicabilité et performance est délicate. Certains modèles d’IA, comme les réseaux neuronaux profonds, offrent une grande précision mais sont difficiles à expliquer. Cependant, dans des contextes critiques, comme le scoring de crédit ou les soins de santé, il est inacceptable de dire « faites confiance aux chiffres ». L’EU AI Act impose un droit à l’explication, ce qui oblige les organisations à choisir des modèles plus transparents ou à ajouter une couche d’interprétabilité.

Intégration des plans de traitement des risques avec les systèmes existants

L’intégration est essentielle. De nombreuses entreprises possèdent déjà des systèmes pour gérer la cybersécurité, la confidentialité des données et la conformité. L’objectif est d’éviter de réinventer la roue tout en l’élargissant. En utilisant les contrôles de l’ISO 27001 comme point de départ, les entreprises peuvent ajouter des couches spécifiques à l’IA, garantissant ainsi que le cadre de gouvernance reste cohérent.

Conclusion : l’importance de l’élément humain

Un aspect souvent négligé dans la gestion des risques de l’IA est le facteur humain. Il est facile de se concentrer sur les modèles, les données et les algorithmes. Pourtant, rien de tout cela n’a de valeur si les gens ne font pas confiance au système ou, pire, ne le comprennent pas. Il est impératif de former les équipes à la prise de décision éthique et d’impliquer des voix diverses durant le développement.

Construire une culture de confiance et d’interaction est aussi crucial que de développer le code. La gestion responsable de l’IA commence bien avant le déploiement du système ; elle débute avec les personnes, les processus et les objectifs.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...