Surmonter le paradoxe de la transparence de l’IA
L’intelligence artificielle (IA) est confrontée à un problème de transparence bien documenté mais mal compris. En effet, 51% des dirigeants d’entreprise rapportent que la transparence et l’éthique de l’IA sont cruciales pour leur activité, tandis que 41% d’entre eux affirment avoir suspendu le déploiement d’un outil d’IA en raison d’une préoccupation éthique potentielle.
Pour comprendre pleinement pourquoi la transparence de l’IA représente un défi, il est essentiel de réconcilier certaines idées reçues avec les réalités qui sous-tendent cette problématique. Cela nous permettra d’avoir une meilleure vue d’ensemble du problème et des meilleures manières de l’aborder dans le contexte des outils de machine learning (ML) disponibles sur le marché.
Les complexités techniques perpétuent l’IA en boîte noire
L’une des forces motrices derrière le développement des outils et pratiques DevOps était la détection et l’élimination des bogues dans les applications logicielles, afin d’éviter des disruptions ou des risques imprévus pour les utilisateurs. Le cadre DevOps permet une livraison plus rapide et améliorée des produits logiciels, une automatisation accrue, des solutions plus rapides aux problèmes rencontrés, ainsi qu’une plus grande visibilité sur les performances et les résultats du système.
De manière similaire, le MLOps a émergé pour répondre aux besoins opérationnels du développement et de la maintenance des systèmes ML, même si cette pratique est encore à ses débuts. Contrairement au développement logiciel, de nombreux systèmes de machine learning déployés aujourd’hui souffrent d’un manque de transparence et de compréhension de leur fonctionnement interne. Une partie de ce dilemme découle de la complexité technique des systèmes d’IA. Bien qu’il soit possible de créer des modèles de machine learning facilement interprétables, tels que des arbres de décision simples, ces modèles ne sont pas toujours utiles pour atteindre des tâches ou objectifs complexes.
Pour construire des modèles de machine learning capables de fonctionner avec une grande précision, le modèle doit être alimenté par un volume élevé de données de qualité représentatives des données réelles qu’il rencontrera une fois déployé. À mesure que des milliers, voire des millions de points de données et des centaines de caractéristiques hétérogènes sont analysés, la complexité augmente, rendant le fonctionnement interne du système moins compréhensible, même pour ceux qui construisent les modèles.
Les idées reçues qui rendent les organisations hésitantes à adopter une plus grande transparence de l’IA
Idée reçue n°1 : Si les modèles ML se révèlent biaisés ou injustes, nous perdrons automatiquement la confiance des clients
Certaines organisations craignent que la divulgation du code source, du modèle mathématique sous-jacent, des données d’entraînement ou même des entrées et sorties d’un modèle de machine learning ne les expose à des risques de perte de confiance des clients, à un examen public intense ou à des perturbations dans le déploiement et l’utilisation de leurs innovations basées sur l’IA.
Si un système de ML est jugé injuste en ce qui concerne le genre, la race, le statut économique ou tout autre groupe, cela pourrait non seulement entraîner une perte de confiance avec les clients existants, mais également soumettre l’organisation à un examen public et réglementaire, potentiellement ternissant sa marque.
Réalité n°1 : Adopter des pratiques d’IA responsables aide à établir la confiance avec vos clients
Selon une récente enquête, 62% des répondants ont déclaré qu’ils auraient davantage confiance en une entreprise qu’ils perçoivent comme pratiquant une IA éthique. De plus, 59% ont indiqué qu’ils seraient plus loyaux envers cette entreprise, et 55% ont déclaré qu’ils achèteraient plus de produits et donneraient des évaluations élevées sur les réseaux sociaux.
Idée reçue n°2 : La transparence de l’IA n’est pas nécessaire car les organisations peuvent s’autoréguler
Une autre raison pour laquelle certaines organisations hésitent à rendre leurs systèmes ML transparents est que la divulgation pourrait révéler des biais ou des injustices intégrés, ce qui pourrait soumettre l’organisation à une réglementation ou à des actions en justice.
Réalité n°2 : La transparence de l’IA permet une réglementation prévisible et cohérente
À mesure que les outils d’IA sont déployés dans des domaines critiques tels que la banque, l’emploi ou la justice pénale, les régulateurs prêtent une attention particulière aux effets potentiellement néfastes de l’IA sur les droits fondamentaux. La transparence de l’IA peut rationaliser les efforts de conformité légale et protéger les organisations contre de potentielles actions juridiques à l’avenir.
Idée reçue n°3 : Si les données des classes protégées ne sont pas utilisées dans la construction du modèle, le modèle ne peut pas être biaisé
Une autre source de préoccupation pour les organisations concernant la transparence de l’IA est le manque d’accès aux données de classes protégées par leurs équipes de ML, rendant difficile la validation des modèles pour détecter les biais ou les discriminations.
Réalité n°3 : L’accès aux données des classes protégées peut aider les praticiens du ML à identifier et éliminer les biais
Bien que cela puisse sembler contre-intuitif, donner aux praticiens du ML un accès aux données des classes protégées peut aider à atténuer les biais des modèles. En comprenant quels segments un modèle présente des biais, les praticiens peuvent prendre des mesures proactives pour réduire ou éliminer ces biais en employant certaines techniques.
Idée reçue n°4 : La transparence de l’IA vous expose à la perte de propriété intellectuelle
Il existe une tension croissante entre le désir de transparence de l’IA et l’intérêt des organisations à maintenir le secret sur leurs outils d’IA. D’une part, le secret aide à maintenir leur avantage concurrentiel sur le marché.
Réalité n°4 : La transparence ne signifie pas divulguer la propriété intellectuelle
Il y a une idée reçue selon laquelle la transparence rend la protection des secrets commerciaux sur les ensembles de données, les algorithmes ou les modèles sans valeur. C’est une mauvaise compréhension des limites et du sens de la transparence, ainsi que des protections offertes par la loi.
Surmonter l’IA en boîte noire avec des outils d’observabilité ML
Pour rendre votre système ML transparent pour les parties externes telles que vos utilisateurs finaux, les régulateurs et même le grand public, il est essentiel de disposer d’outils appropriés et spécifiquement conçus qui fournissent des informations contextuelles sur la qualité des données avec lesquelles votre modèle est entraîné, les changements dans le modèle, les valeurs des attributs et leurs évolutions au fil du temps.
Les outils d’observabilité ML peuvent aider à transformer des modèles en boîte noire en modèles « en verre » qui sont plus compréhensibles. Cela permet aux organisations de construire des systèmes d’IA plus transparents.