Cultiver la confiance dans l’IA au sein des organisations

A magnifying glass illustrating the need for careful scrutiny and oversight.

Ce que les organisations doivent faire pour gérer l’IA de manière responsable

De nombreuses organisations utilisent l’intelligence artificielle (IA), que ce soit de manière consciente ou non. La question cruciale est comment elles l’utilisent et comment elles peuvent s’assurer qu’elles le font de manière responsable.

Le défi de gagner la confiance dans l’IA est avant tout un défi socio-technique, où le plus difficile est souvent l’aspect humain. Pour aborder ce défi, il est nécessaire de considérer trois composantes : les personnes, les processus et les outils, ainsi que quelques principes clés pour les mettre en œuvre au sein d’une organisation.

Trois principes clés

Parmi ces trois composantes, les personnes représentent le plus grand défi pour trouver l’équilibre nécessaire à une IA responsable dans une organisation.

Principe 1 : Humilité

Le premier principe consiste à aborder cette question avec une tremendous humility, car les membres d’une organisation doivent apprendre et désapprendre de nombreuses choses. L’importance de déterminer qui a voix au chapitre dans ces discussions est primordiale. Les conversations autour de l’IA doivent inclure des individus issus de disciplines multiples et ayant des expériences variées pour créer une IA de manière holistique.

Avoir un état d’esprit de croissance est essentiel pour favoriser une IA responsable. Les organisations doivent également offrir à leurs employés un espace psychologique sûr pour mener des discussions parfois difficiles sur le sujet de l’IA.

Principe 2 : Perspectives diverses

Le second principe consiste à reconnaître que les individus viennent d’expériences mondiales diverses et que toutes les perspectives comptent. Les organisations doivent prendre en compte la diversité de leur main-d’œuvre ainsi que des personnes qui construisent et gouvernent les modèles d’IA. Cela va au-delà du genre, de la race, de l’ethnicité ou de l’orientation sexuelle ; il s’agit de perspective et d’expérience de vie.

Il est crucial que les personnes ayant des expériences de vie différentes soient impliquées dans la réflexion sur des questions telles que : Est-ce approprié ? Cela résout-il le problème ? Quelles données sont utilisées ? Qu’est-ce qui pourrait mal tourner ?

Principe 3 : Pluridisciplinarité

Enfin, les équipes qui construisent et gouvernent ces modèles d’IA doivent être pluridisciplinaires. Cela signifie rassembler des individus aux horizons variés, tels que des sociologues, des anthropologues et des experts juridiques, qui représentent la clé pour créer une IA responsable.

Reconnaissance des biais

Un des mythes courants autour de l’IA est que 100 % des efforts sont consacrés au codage. Cela est faux. En réalité, plus de 70 % de l’effort consiste à déterminer si les données utilisées sont appropriées. Les données sont un artefact de l’expérience humaine.

Les humains génèrent les données et construisent les machines qui les génèrent. Il est donc essentiel de reconnaître que tout le monde a des biais. Ces biais existent depuis la nuit des temps pour de bonnes raisons.

L’IA peut être comparée à un miroir, reflétant les biais d’une personne. Il est crucial d’avoir le courage de se regarder dans ce miroir et de décider si le reflet s’aligne avec les valeurs de l’organisation.

Favoriser la transparence

Les organisations qui gèrent ces modèles d’IA doivent être transparentes quant aux décisions prises concernant les données ou les approches choisies. Il est important de créer une fiche d’information pour leurs solutions d’IA, détaillant des informations essentielles telles que l’usage prévu, l’origine des données, la méthodologie employée, la responsabilité, la fréquence des audits et les résultats de ceux-ci.

Les individus doivent également être suffisamment conscients pour réaliser si leur réflexion est en adéquation avec leurs valeurs ; si ce n’est pas le cas, ils doivent modifier leur approche.

Il est essentiel de se rappeler que toutes les données sont biaisées. La clé réside dans la transparence sur les raisons qui ont conduit à considérer certaines données comme les plus importantes pour le modèle.

La confiance dans l’IA se mérite, elle ne se donne pas. Il est indispensable d’avoir des conversations difficiles avec les membres de l’équipe sur l’origine de leurs biais et de reconnaître que créer un modèle d’IA responsable et fiable n’est pas un processus linéaire, mais nécessite un travail acharné.

Articles

Intelligence artificielle et recherche UX : vers des workflows éthiques et efficaces

La recherche UX n'est aussi solide que les humains qui la dirigent, et les décisions humaines peuvent souvent introduire des erreurs. L'arrivée de l'IA dans la recherche UX est fascinante, promettant...

L’avenir de l’IA agentique dans le secteur bancaire

L'intelligence artificielle agentique transforme le secteur bancaire en automatisant des processus complexes et en améliorant l'expérience client. Cependant, elle pose des défis en matière de...

La conformité native à l’IA : clé d’une infrastructure crypto évolutive

L'industrie de la cryptographie connaît une croissance explosive, mais fait face à de nombreux défis réglementaires, en particulier dans les opérations transfrontalières. Les plateformes intégrant des...

Gouvernance de l’IA en ASEAN : un chemin semé d’embûches mais prometteur

L'Association des nations de l'Asie du Sud-Est (ASEAN) adopte une approche favorable à l'innovation pour l'intelligence artificielle (IA), visant à faire avancer la région vers une économie numérique...

L’UE face aux défis de l’IA : réglementation stricte contre innovation américaine

Dans un récent épisode du podcast "Regulating AI", le Dr Cari Miller a discuté des implications mondiales du Plan d'action sur l'IA des États-Unis, soulignant l'équilibre délicat entre innovation et...

Les risques méconnus de l’IA dans les entreprises

L'IA devient de plus en plus présente dans les lieux de travail, mais de nombreuses entreprises ignorent les risques associés. Il est essentiel d'établir des principes de conformité et de gouvernance...

Investir dans la sécurité de l’IA pour un avenir responsable

La révolution de l'intelligence artificielle est désormais une réalité, transformant les industries et la vie quotidienne. Pour les investisseurs, cela représente une opportunité en or d'exploiter un...

L’impact croissant de l’IA sur la sécurité publique

Les agences de maintien de l'ordre (LEAs) utilisent de plus en plus l'intelligence artificielle (IA) pour améliorer leur fonctionnement, en particulier grâce à des capacités accrues pour la police...

Kenya à l’avant-garde de la gouvernance mondiale de l’IA

Le Kenya a remporté une victoire diplomatique majeure après que les 193 États membres des Nations Unies ont convenu à l'unanimité de créer deux institutions marquantes pour gouverner l'intelligence...