Qu’est-ce que la transparence de l’IA ?
À mesure que l’utilisation de l’IA se propage, la transparence autour de ces systèmes et de leurs résultats devient cruciale. Cet article examine ce que l’on entend par transparence de l’IA et IA explicable, et décrit comment ces concepts peuvent être mis en œuvre.
La définition de la transparence de l’IA
L’intelligence artificielle (IA) est un terme large qui décrit des systèmes algorithmiques programmés pour atteindre des objectifs définis par l’homme. Beaucoup de ces systèmes sont connus sous le nom de systèmes « boîte noire », où les fonctionnements internes du modèle ne sont soit pas connus de l’utilisateur, soit non interprétables par les humains. Dans un tel cas, on peut dire que le modèle manque de transparence.
La transparence de l’IA est un terme général qui englobe des concepts tels que l’IA explicable (XAI) et l’interprétabilité. De manière générale, elle comprend trois niveaux :
- Explicabilité des composants techniques – la capacité à expliquer les mécanismes internes de l’algorithme
- Gouvernance du système – la présence de processus et de documentation appropriés des décisions clés
- Transparence de l’impact – la communication claire des capacités et de l’objectif des algorithmes aux parties prenantes pertinentes
Explicabilité des composants techniques
L’explicabilité des composants techniques du système se réfère à la capacité d’expliquer ce qui se passe au sein d’un système d’IA. Cela repose sur quatre types d’explications :
- Explicabilité spécifique au modèle – un modèle a l’explicabilité intégrée dans sa conception et son développement
- Explicabilité agnostique au modèle – une technique mathématique est appliquée aux résultats de tout algorithme pour fournir une interprétation des facteurs de décision du modèle
- Explicabilité au niveau global – comprendre le comportement de l’algorithme à un niveau élevé/dataset/populationnel, ce qui est typiquement effectué par des chercheurs et des concepteurs de l’algorithme
- Explicabilité au niveau local – comprendre le comportement de l’algorithme à un niveau bas/sous-ensemble/individuel, typiquement pour ceux ciblés par un algorithme
Gouvernance du système
Le deuxième niveau de transparence, la gouvernance, inclut l’établissement et la mise en œuvre de protocoles pour documenter les décisions prises concernant un système, depuis les premières étapes de développement jusqu’à son déploiement, y compris pour toute mise à jour apportée au système.
La gouvernance peut également inclure l’établissement de la responsabilité pour les résultats d’un système, intégrée dans les contrats ou la documentation appropriés. Par exemple, les contrats devraient spécifier si la responsabilité pour tout dommage ou perte incombe au fournisseur ou au vendeur d’un système, à l’entité déployant un système, ou aux concepteurs et développeurs spécifiques du système. Cela encourage une plus grande diligence, surtout si une partie peut être tenue responsable d’un système, et peut également être utilisé à des fins d’assurance et de récupération des pertes résultant du déploiement ou de l’utilisation du système.
En dehors de la documentation et de la responsabilité, la gouvernance d’un système peut également se référer à la réglementation et à la législation qui régissent l’utilisation du système, ainsi qu’aux politiques internes au sein des organisations concernant la création, l’acquisition et l’utilisation des systèmes d’IA.
Transparence de l’impact
Le troisième niveau de transparence concerne la communication des capacités et de l’objectif d’un système d’IA aux parties prenantes pertinentes, tant celles directement que indirectement affectées. Les communications doivent être émises dans un délai approprié et doivent être claires, précises et évidentes.
Pour rendre l’impact des systèmes plus transparent, il est essentiel de communiquer le type de données que l’algorithme utilisera et la source de ces données aux personnes concernées. Les communications doivent également indiquer aux utilisateurs qu’ils interagissent avec un système d’IA, sous quelle forme se présentent les résultats du système, et comment ces résultats seront utilisés. En particulier, lorsqu’un système présente des biais envers certains groupes, il est impératif de communiquer sur la performance du système pour des catégories spécifiques et si certains groupes pourraient connaître des résultats négatifs en interagissant avec le système.
Pourquoi avons-nous besoin de transparence en IA ?
Une motivation majeure pour la transparence et l’explicabilité en IA est qu’elles peuvent instaurer la confiance dans les systèmes d’IA, offrant aux utilisateurs et autres parties prenantes une plus grande confiance dans l’utilisation appropriée du système. Comprendre les décisions qu’un système prend et comment il les prend peut également donner aux individus plus d’autonomie sur leurs décisions, leur permettant de donner un consentement éclairé lorsqu’ils interagissent avec un système.
En plus de cela, la transparence peut avoir plusieurs avantages commerciaux :
- En premier lieu, en cataloguant tous les systèmes utilisés au sein d’une entreprise, des mesures peuvent être prises pour garantir que les algorithmes sont déployés efficacement et que des processus simples ne sont pas compliqués par l’utilisation d’algorithmes complexes pour des tâches mineures.
- En second lieu, si une action légale est intentée contre une organisation, la transparence de ses systèmes IA facilite une explication claire de leur fonctionnement et des raisons pour lesquelles ils ont pris certaines décisions. Cela peut aider à exonérer les organisations d’accusations de négligence ou d’intention malveillante découlant de l’application négative d’un système automatisé, résoudre rapidement le problème, et garantir que les actions appropriées peuvent être prises lorsque cela est nécessaire.
Un exemple appliqué de cela est l’action intentée contre Apple pour leur carte Apple, qui a apparemment accordé une limite de crédit beaucoup plus élevée à un homme par rapport à sa femme, malgré le fait qu’elle ait un score de crédit plus élevé. Cependant, Goldman Sachs, le fournisseur de la carte, a pu justifier pourquoi le modèle a pris la décision qu’il a prise, ce qui signifie qu’ils ont été exonérés d’activité illégale, soulignant l’importance de l’IA explicable.
En fin de compte, l’objectif global de la transparence de l’IA est d’établir un écosystème de confiance autour de l’utilisation de l’IA, en particulier parmi les citoyens ou utilisateurs de systèmes, et surtout dans les communautés qui sont les plus à risque de préjudice par les systèmes d’IA.