Un appel à la transparence et à la responsabilité dans l’intelligence artificielle
L’intelligence artificielle (IA) est de plus en plus utilisée pour des décisions qui affectent notre quotidien, y compris des choix potentiellement vitaux. Il est donc impératif d’exiger une transparence et une responsabilité dans l’utilisation de l’IA, de sorte qu’elle soit explicable tant pour les employés que pour les clients et qu’elle soit alignée sur les principes fondamentaux des entreprises.
La dualité médiatique de l’IA
La couverture médiatique de l’IA est souvent polarisée. D’une part, elle est présentée comme une technologie divine capable de résoudre tous nos problèmes, de la guérison du cancer à la lutte contre le réchauffement climatique. D’autre part, des récits inspirés par Frankenstein ou Terminator dépeignent l’IA comme une menace incontrolable, susceptible de nuire à l’humanité.
Ces dernières années, le nombre d’histoires négatives concernant l’IA a considérablement augmenté. Par exemple, le technicien-entrepreneur Elon Musk a déclaré que l’IA est « plus dangereuse que les armes nucléaires ». Des cas d’abus d’algorithmes avancés ont été révélés, comme celui de la firme Cambridge Analytica, qui a exploité les données de millions d’utilisateurs de Facebook sans leur consentement pour influencer les élections américaines.
Les enjeux de la transparence
Il est devenu évident que les modèles d’IA peuvent reproduire et institutionnaliser des préjugés. Par exemple, le modèle COMPAS, utilisé aux États-Unis pour prédire la récidive, s’est avéré biaisé contre les personnes noires. De même, un outil de recrutement alimenté par l’IA a montré des biais contre les femmes.
Certaines formes d’IA peuvent être manipulées par des forces malveillantes. Cela a été le cas avec un bot Twitter qui est devenu un troll en moins d’une journée, publiant des messages incendiaires et des théories du complot. D’autres cas soulèvent des questions non résolues concernant l’éthique de l’application de l’IA, comme la décision de Google de ne pas renouveler un contrat avec le Pentagone pour développer de l’IA destinée à identifier des cibles potentiellement létales dans des images satellites, en réponse à des protestations massives de ses employés.
Les propositions pour une IA responsable
Cette publication explore les points de vue sur la nécessité d’une IA transparente et responsable. Quatre propositions ont été développées autour de ce thème :
- AlgoInsight : un outil technique pour valider les modèles d’IA et expliquer le processus décisionnel aux employés et clients.
- FRR Quality Mark pour la Robotique et l’IA : un label garantissant que les produits alimentés par l’IA sont utilisés de manière responsable.
- Digital Ethics : un cadre pour aider les organisations à développer des principes directeurs concernant l’utilisation de la technologie.
- Modèles d’Affaires Alimentés par l’IA : couvrant l’ensemble du processus, de la définition de la vision à la mise en œuvre.
Détecter les biais cachés
Pour créer une IA transparente, il est essentiel de vérifier la correction technique du modèle et de s’assurer que les résultats sont statistiquement solides. Les biais dans les ensembles de données doivent être identifiés et corrigés. Par exemple, si un modèle d’IA est formé sur des données de gestionnaires majoritairement blancs, il risque de reproduire ce biais dans ses décisions.
Rétablir la confiance
La nécessité d’une IA transparente et responsable est également un sujet de préoccupation au niveau politique. De nombreux pays élaborent actuellement des stratégies nationales pour l’IA, et diverses mesures politiques liées à l’IA sont en cours. Les entreprises doivent non seulement répondre aux attentes de leurs clients, mais également à celles de leurs employés, qui demandent une vision claire de l’utilisation de l’IA.
Les entreprises qui ne s’engagent pas dans cette voie risquent de voir leur réputation entachée, de faire face à des problèmes juridiques et de perdre la confiance de leurs clients et employés. L’éthique numérique doit être intégrée de manière structurelle dans les organisations pour garantir que l’IA soit utilisée de manière bénéfique pour la société.
Conclusion
La transparence et la responsabilité dans l’IA aideront à garantir que les algorithmes avancés soient correctement testés, explicables et alignés sur les principes fondamentaux des entreprises. Il est essentiel d’agir dès maintenant pour que les technologies d’IA soient construites de manière éthique, afin qu’elles puissent réaliser leur potentiel positif, tout en assurant que les décisions prises par ces systèmes soient justes et bénéfiques pour l’humanité.