Cultiver la confiance dans l’IA au sein des organisations

A magnifying glass illustrating the need for careful scrutiny and oversight.

Ce que les organisations doivent faire pour gérer l’IA de manière responsable

De nombreuses organisations utilisent l’intelligence artificielle (IA), que ce soit de manière consciente ou non. La question cruciale est comment elles l’utilisent et comment elles peuvent s’assurer qu’elles le font de manière responsable.

Le défi de gagner la confiance dans l’IA est avant tout un défi socio-technique, où le plus difficile est souvent l’aspect humain. Pour aborder ce défi, il est nécessaire de considérer trois composantes : les personnes, les processus et les outils, ainsi que quelques principes clés pour les mettre en œuvre au sein d’une organisation.

Trois principes clés

Parmi ces trois composantes, les personnes représentent le plus grand défi pour trouver l’équilibre nécessaire à une IA responsable dans une organisation.

Principe 1 : Humilité

Le premier principe consiste à aborder cette question avec une tremendous humility, car les membres d’une organisation doivent apprendre et désapprendre de nombreuses choses. L’importance de déterminer qui a voix au chapitre dans ces discussions est primordiale. Les conversations autour de l’IA doivent inclure des individus issus de disciplines multiples et ayant des expériences variées pour créer une IA de manière holistique.

Avoir un état d’esprit de croissance est essentiel pour favoriser une IA responsable. Les organisations doivent également offrir à leurs employés un espace psychologique sûr pour mener des discussions parfois difficiles sur le sujet de l’IA.

Principe 2 : Perspectives diverses

Le second principe consiste à reconnaître que les individus viennent d’expériences mondiales diverses et que toutes les perspectives comptent. Les organisations doivent prendre en compte la diversité de leur main-d’œuvre ainsi que des personnes qui construisent et gouvernent les modèles d’IA. Cela va au-delà du genre, de la race, de l’ethnicité ou de l’orientation sexuelle ; il s’agit de perspective et d’expérience de vie.

Il est crucial que les personnes ayant des expériences de vie différentes soient impliquées dans la réflexion sur des questions telles que : Est-ce approprié ? Cela résout-il le problème ? Quelles données sont utilisées ? Qu’est-ce qui pourrait mal tourner ?

Principe 3 : Pluridisciplinarité

Enfin, les équipes qui construisent et gouvernent ces modèles d’IA doivent être pluridisciplinaires. Cela signifie rassembler des individus aux horizons variés, tels que des sociologues, des anthropologues et des experts juridiques, qui représentent la clé pour créer une IA responsable.

Reconnaissance des biais

Un des mythes courants autour de l’IA est que 100 % des efforts sont consacrés au codage. Cela est faux. En réalité, plus de 70 % de l’effort consiste à déterminer si les données utilisées sont appropriées. Les données sont un artefact de l’expérience humaine.

Les humains génèrent les données et construisent les machines qui les génèrent. Il est donc essentiel de reconnaître que tout le monde a des biais. Ces biais existent depuis la nuit des temps pour de bonnes raisons.

L’IA peut être comparée à un miroir, reflétant les biais d’une personne. Il est crucial d’avoir le courage de se regarder dans ce miroir et de décider si le reflet s’aligne avec les valeurs de l’organisation.

Favoriser la transparence

Les organisations qui gèrent ces modèles d’IA doivent être transparentes quant aux décisions prises concernant les données ou les approches choisies. Il est important de créer une fiche d’information pour leurs solutions d’IA, détaillant des informations essentielles telles que l’usage prévu, l’origine des données, la méthodologie employée, la responsabilité, la fréquence des audits et les résultats de ceux-ci.

Les individus doivent également être suffisamment conscients pour réaliser si leur réflexion est en adéquation avec leurs valeurs ; si ce n’est pas le cas, ils doivent modifier leur approche.

Il est essentiel de se rappeler que toutes les données sont biaisées. La clé réside dans la transparence sur les raisons qui ont conduit à considérer certaines données comme les plus importantes pour le modèle.

La confiance dans l’IA se mérite, elle ne se donne pas. Il est indispensable d’avoir des conversations difficiles avec les membres de l’équipe sur l’origine de leurs biais et de reconnaître que créer un modèle d’IA responsable et fiable n’est pas un processus linéaire, mais nécessite un travail acharné.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...