Ce que les organisations doivent faire pour gérer l’IA de manière responsable
De nombreuses organisations utilisent l’intelligence artificielle (IA), que ce soit de manière consciente ou non. La question cruciale est comment elles l’utilisent et comment elles peuvent s’assurer qu’elles le font de manière responsable.
Le défi de gagner la confiance dans l’IA est avant tout un défi socio-technique, où le plus difficile est souvent l’aspect humain. Pour aborder ce défi, il est nécessaire de considérer trois composantes : les personnes, les processus et les outils, ainsi que quelques principes clés pour les mettre en œuvre au sein d’une organisation.
Trois principes clés
Parmi ces trois composantes, les personnes représentent le plus grand défi pour trouver l’équilibre nécessaire à une IA responsable dans une organisation.
Principe 1 : Humilité
Le premier principe consiste à aborder cette question avec une tremendous humility, car les membres d’une organisation doivent apprendre et désapprendre de nombreuses choses. L’importance de déterminer qui a voix au chapitre dans ces discussions est primordiale. Les conversations autour de l’IA doivent inclure des individus issus de disciplines multiples et ayant des expériences variées pour créer une IA de manière holistique.
Avoir un état d’esprit de croissance est essentiel pour favoriser une IA responsable. Les organisations doivent également offrir à leurs employés un espace psychologique sûr pour mener des discussions parfois difficiles sur le sujet de l’IA.
Principe 2 : Perspectives diverses
Le second principe consiste à reconnaître que les individus viennent d’expériences mondiales diverses et que toutes les perspectives comptent. Les organisations doivent prendre en compte la diversité de leur main-d’œuvre ainsi que des personnes qui construisent et gouvernent les modèles d’IA. Cela va au-delà du genre, de la race, de l’ethnicité ou de l’orientation sexuelle ; il s’agit de perspective et d’expérience de vie.
Il est crucial que les personnes ayant des expériences de vie différentes soient impliquées dans la réflexion sur des questions telles que : Est-ce approprié ? Cela résout-il le problème ? Quelles données sont utilisées ? Qu’est-ce qui pourrait mal tourner ?
Principe 3 : Pluridisciplinarité
Enfin, les équipes qui construisent et gouvernent ces modèles d’IA doivent être pluridisciplinaires. Cela signifie rassembler des individus aux horizons variés, tels que des sociologues, des anthropologues et des experts juridiques, qui représentent la clé pour créer une IA responsable.
Reconnaissance des biais
Un des mythes courants autour de l’IA est que 100 % des efforts sont consacrés au codage. Cela est faux. En réalité, plus de 70 % de l’effort consiste à déterminer si les données utilisées sont appropriées. Les données sont un artefact de l’expérience humaine.
Les humains génèrent les données et construisent les machines qui les génèrent. Il est donc essentiel de reconnaître que tout le monde a des biais. Ces biais existent depuis la nuit des temps pour de bonnes raisons.
L’IA peut être comparée à un miroir, reflétant les biais d’une personne. Il est crucial d’avoir le courage de se regarder dans ce miroir et de décider si le reflet s’aligne avec les valeurs de l’organisation.
Favoriser la transparence
Les organisations qui gèrent ces modèles d’IA doivent être transparentes quant aux décisions prises concernant les données ou les approches choisies. Il est important de créer une fiche d’information pour leurs solutions d’IA, détaillant des informations essentielles telles que l’usage prévu, l’origine des données, la méthodologie employée, la responsabilité, la fréquence des audits et les résultats de ceux-ci.
Les individus doivent également être suffisamment conscients pour réaliser si leur réflexion est en adéquation avec leurs valeurs ; si ce n’est pas le cas, ils doivent modifier leur approche.
Il est essentiel de se rappeler que toutes les données sont biaisées. La clé réside dans la transparence sur les raisons qui ont conduit à considérer certaines données comme les plus importantes pour le modèle.
La confiance dans l’IA se mérite, elle ne se donne pas. Il est indispensable d’avoir des conversations difficiles avec les membres de l’équipe sur l’origine de leurs biais et de reconnaître que créer un modèle d’IA responsable et fiable n’est pas un processus linéaire, mais nécessite un travail acharné.