L’intelligence artificielle : enjeux et cadres de gouvernance

A bridge

Entretien exclusif : Naviguer dans les cadres de gouvernance de l’IA

Depuis peu, l’Intelligence Artificielle (IA) est devenue un moteur essentiel dans chaque secteur majeur. Toutefois, alors que l’IA gagne en puissance, les risques qui l’accompagnent se multiplient. Les entreprises doivent donc naviguer avec prudence dans ce paysage en constante évolution en matière de gestion des risques liés à l’IA.

L’IA : un moteur de changement et un amplificateur de risques

Il est crucial de reconnaître que l’IA offre une vitesse, une efficacité et des insights auparavant inimaginables. Cependant, ces avantages s’accompagnent de problèmes sérieux, tels que des défis en matière de vie privée, des préjugés intégrés, et un manque de responsabilité dans les décisions prises par des systèmes souvent incompréhensibles.

En abordant ces deux côtés, il est essentiel de comprendre que déployer l’IA sans traiter les risques, c’est jouer avec le feu. Le concept d’IA responsable ne se limite pas à prévenir les dommages ; il s’agit également de maintenir la confiance et la crédibilité.

Comprendre le cadre de gestion des risques de l’IA du NIST

Le cadre de gestion des risques de l’IA du NIST se distingue par son approche holistique. Contrairement à d’autres cadres qui offrent simplement une liste de contrôle, le NIST invite les organisations à réfléchir de manière globale. Les risques liés à l’IA ne sont pas toujours visibles ou mesurables de la même manière que d’autres risques technologiques.

La structure « Gouverner, Cartographier, Mesurer, Gérer » du NIST permet une flexibilité, favorisant ainsi une mentalité adaptable aux évolutions des systèmes et des risques.

La question de la confiance dans les cadres de gouvernance

La confiance est un thème central dans tous les cadres de gouvernance. Le NIST définit la confiance de manière opérationnelle, se concentrant sur sept domaines clés : équité, vie privée, résilience, et transparence. En appliquant le NIST, les organisations évaluent activement leur IA sur ces critères.

À l’inverse, l’ISO 42001 adopte une approche axée sur la gouvernance, mettant l’accent sur la manière dont les dirigeants intègrent les principes de confiance dans la culture, les politiques et les procédures. Les deux cadres sont complémentaires, mais chacun opère à des niveaux différents au sein de l’organisation.

Les obstacles à l’adoption de l’ISO 42001

Un des plus grands obstacles à l’adoption de l’ISO 42001 est l’inertie des dirigeants. De nombreux leaders considèrent que la gouvernance de l’IA est une tâche à confier à l’équipe informatique ou aux data scientists. Pourtant, l’ISO 42001 stipule clairement que les dirigeants doivent prendre les rênes. Ils sont responsables de définir la direction éthique, d’approuver les budgets pour la surveillance de l’IA et d’assigner des responsabilités.

L’importance du contexte dans la gestion des risques de l’IA

Le contexte est essentiel. Les systèmes d’IA ne fonctionnent pas en isolation ; ils évoluent dans des environnements réels remplis de lois, de normes et de valeurs. Ce qui est considéré comme équitable dans une application bancaire peut être totalement inapproprié dans le secteur de la santé. L’ISO 42001 encourage les organisations à analyser attentivement leur environnement, en prenant en compte les attentes des clients, les lois régionales et même l’attention médiatique.

Les implications de l’EU AI Act

Le EU AI Act ne se limite pas à des suggestions ; c’est une loi qui impose des conséquences. Si votre système d’IA est classé comme « à haut risque », vous devez respecter des obligations détaillées, allant de la documentation aux audits et à la supervision humaine. Les zones de réglementation permettent aux développeurs de tester des IA à haut risque sous supervision sans enfreindre les règles, et l’acte a une portée extraterritoriale, obligeant également les entreprises hors de l’UE à se conformer si elles touchent le marché européen.

Choisir le bon cadre de gouvernance

Il n’existe pas de cadre « meilleur » parmi les trois ; tout dépend du contexte et des objectifs de l’organisation. Le NIST est excellent pour sensibiliser et débuter les efforts de gouvernance, surtout pour les entreprises basées aux États-Unis. L’ISO 42001 est idéal pour une échelle mondiale, tandis que l’EU AI Act est incontournable pour les opérations en Europe.

En réalité, de nombreuses organisations adoptent une combinaison de ces cadres, empruntant des éléments qui correspondent à leur maturité opérationnelle, leur exposition au marché et leur tolérance au risque.

Personnalisation des profils de risque

La personnalisation des « profils » est une approche qui permet aux organisations de créer une feuille de route adaptée à leur parcours unique. Par exemple, un hôpital utilisant une IA diagnostique aura besoin de contrôles différents d’une entreprise de vente au détail utilisant l’IA pour la segmentation de la clientèle.

Le NIST permet aux organisations de construire ces profils en fonction de leur cas d’utilisation, de leur modèle de menace et de leurs objectifs. Cela garantit que les contrôles appliqués sont pertinents et adaptés.

Équilibrer explicabilité et performance

La question de l’équilibre entre explicabilité et performance est délicate. Certains modèles d’IA, comme les réseaux neuronaux profonds, offrent une grande précision mais sont difficiles à expliquer. Cependant, dans des contextes critiques, comme le scoring de crédit ou les soins de santé, il est inacceptable de dire « faites confiance aux chiffres ». L’EU AI Act impose un droit à l’explication, ce qui oblige les organisations à choisir des modèles plus transparents ou à ajouter une couche d’interprétabilité.

Intégration des plans de traitement des risques avec les systèmes existants

L’intégration est essentielle. De nombreuses entreprises possèdent déjà des systèmes pour gérer la cybersécurité, la confidentialité des données et la conformité. L’objectif est d’éviter de réinventer la roue tout en l’élargissant. En utilisant les contrôles de l’ISO 27001 comme point de départ, les entreprises peuvent ajouter des couches spécifiques à l’IA, garantissant ainsi que le cadre de gouvernance reste cohérent.

Conclusion : l’importance de l’élément humain

Un aspect souvent négligé dans la gestion des risques de l’IA est le facteur humain. Il est facile de se concentrer sur les modèles, les données et les algorithmes. Pourtant, rien de tout cela n’a de valeur si les gens ne font pas confiance au système ou, pire, ne le comprennent pas. Il est impératif de former les équipes à la prise de décision éthique et d’impliquer des voix diverses durant le développement.

Construire une culture de confiance et d’interaction est aussi crucial que de développer le code. La gestion responsable de l’IA commence bien avant le déploiement du système ; elle débute avec les personnes, les processus et les objectifs.

Articles

Ingénieurs en IA : Performance ou Responsabilité ?

L'intelligence artificielle a connu une explosion de ses capacités, plaçant les ingénieurs en IA à l'avant-garde de l'innovation. Pendant ce temps, la responsabilité éthique devient cruciale, car les...

L’IA responsable : un impératif incontournable

L'intelligence artificielle responsable n'est plus un simple mot à la mode, mais une nécessité fondamentale, selon Dr Anna Zeiter. Elle souligne l'importance d'établir des systèmes d'IA fiables et...

Intégrer l’IA en toute conformité dans votre entreprise

L'adoption de l'IA dans les entreprises échoue au moins deux fois plus souvent qu'elle ne réussit, selon la Cloud Security Alliance (CSA). Le modèle proposé, appelé Dynamic Process Landscape (DPL)...

Préserver les données générées par l’IA : enjeux et meilleures pratiques

Les outils d'intelligence artificielle générative (GAI) soulèvent des préoccupations juridiques telles que la confidentialité des données et les considérations de privilège. Les organisations doivent...

L’Intelligence Artificielle Responsable : Principes et Avantages

Aujourd'hui, l'IA change la façon dont nous vivons et travaillons, il est donc très important de l'utiliser de manière appropriée. L'IA responsable signifie créer et utiliser une IA qui est juste...

Réussir avec l’IA : Éthique et Gouvernance au cœur de l’Innovation

Il y a vingt ans, personne n'aurait pu prédire que nous compterions sur l'intelligence artificielle (IA) pour prendre des décisions commerciales critiques. Aujourd'hui, les entreprises doivent se...

Régulation de l’IA en Espagne : Pionnière en Europe

L'Espagne est à l'avant-garde de la gouvernance de l'IA avec la création du premier régulateur européen de l'IA (AESIA) et un cadre réglementaire en cours d'élaboration. Un projet de loi national sur...

Réglementation de l’IA : État des lieux et enjeux mondiaux

L'intelligence artificielle (IA) a connu des avancées considérables ces dernières années, ce qui a entraîné des opportunités et des risques potentiels. Les gouvernements et les organismes de...

L’IA dans les jeux d’argent : enjeux et responsabilités

L'article aborde l'impact de l'intelligence artificielle dans l'industrie des jeux d'argent, mettant en lumière les promesses d'efficacité et les risques réglementaires croissants. Les opérateurs...