Cultiver la confiance dans l’IA au sein des organisations

A magnifying glass illustrating the need for careful scrutiny and oversight.

Ce que les organisations doivent faire pour gérer l’IA de manière responsable

De nombreuses organisations utilisent l’intelligence artificielle (IA), que ce soit de manière consciente ou non. La question cruciale est comment elles l’utilisent et comment elles peuvent s’assurer qu’elles le font de manière responsable.

Le défi de gagner la confiance dans l’IA est avant tout un défi socio-technique, où le plus difficile est souvent l’aspect humain. Pour aborder ce défi, il est nécessaire de considérer trois composantes : les personnes, les processus et les outils, ainsi que quelques principes clés pour les mettre en œuvre au sein d’une organisation.

Trois principes clés

Parmi ces trois composantes, les personnes représentent le plus grand défi pour trouver l’équilibre nécessaire à une IA responsable dans une organisation.

Principe 1 : Humilité

Le premier principe consiste à aborder cette question avec une tremendous humility, car les membres d’une organisation doivent apprendre et désapprendre de nombreuses choses. L’importance de déterminer qui a voix au chapitre dans ces discussions est primordiale. Les conversations autour de l’IA doivent inclure des individus issus de disciplines multiples et ayant des expériences variées pour créer une IA de manière holistique.

Avoir un état d’esprit de croissance est essentiel pour favoriser une IA responsable. Les organisations doivent également offrir à leurs employés un espace psychologique sûr pour mener des discussions parfois difficiles sur le sujet de l’IA.

Principe 2 : Perspectives diverses

Le second principe consiste à reconnaître que les individus viennent d’expériences mondiales diverses et que toutes les perspectives comptent. Les organisations doivent prendre en compte la diversité de leur main-d’œuvre ainsi que des personnes qui construisent et gouvernent les modèles d’IA. Cela va au-delà du genre, de la race, de l’ethnicité ou de l’orientation sexuelle ; il s’agit de perspective et d’expérience de vie.

Il est crucial que les personnes ayant des expériences de vie différentes soient impliquées dans la réflexion sur des questions telles que : Est-ce approprié ? Cela résout-il le problème ? Quelles données sont utilisées ? Qu’est-ce qui pourrait mal tourner ?

Principe 3 : Pluridisciplinarité

Enfin, les équipes qui construisent et gouvernent ces modèles d’IA doivent être pluridisciplinaires. Cela signifie rassembler des individus aux horizons variés, tels que des sociologues, des anthropologues et des experts juridiques, qui représentent la clé pour créer une IA responsable.

Reconnaissance des biais

Un des mythes courants autour de l’IA est que 100 % des efforts sont consacrés au codage. Cela est faux. En réalité, plus de 70 % de l’effort consiste à déterminer si les données utilisées sont appropriées. Les données sont un artefact de l’expérience humaine.

Les humains génèrent les données et construisent les machines qui les génèrent. Il est donc essentiel de reconnaître que tout le monde a des biais. Ces biais existent depuis la nuit des temps pour de bonnes raisons.

L’IA peut être comparée à un miroir, reflétant les biais d’une personne. Il est crucial d’avoir le courage de se regarder dans ce miroir et de décider si le reflet s’aligne avec les valeurs de l’organisation.

Favoriser la transparence

Les organisations qui gèrent ces modèles d’IA doivent être transparentes quant aux décisions prises concernant les données ou les approches choisies. Il est important de créer une fiche d’information pour leurs solutions d’IA, détaillant des informations essentielles telles que l’usage prévu, l’origine des données, la méthodologie employée, la responsabilité, la fréquence des audits et les résultats de ceux-ci.

Les individus doivent également être suffisamment conscients pour réaliser si leur réflexion est en adéquation avec leurs valeurs ; si ce n’est pas le cas, ils doivent modifier leur approche.

Il est essentiel de se rappeler que toutes les données sont biaisées. La clé réside dans la transparence sur les raisons qui ont conduit à considérer certaines données comme les plus importantes pour le modèle.

La confiance dans l’IA se mérite, elle ne se donne pas. Il est indispensable d’avoir des conversations difficiles avec les membres de l’équipe sur l’origine de leurs biais et de reconnaître que créer un modèle d’IA responsable et fiable n’est pas un processus linéaire, mais nécessite un travail acharné.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...