Risques de gouvernance liés à l’adoption de l’IA sans littératie

A shattered smartphone screen displaying a complex AI algorithm, with a book lying open beneath it, its pages blank.

Adoption de l’IA sans littératie : un risque de gouvernance

Alors que les entreprises s’efforcent d’intégrer l’IA dans leurs opérations, le débat sur la gouvernance est bloqué au mauvais endroit. Les régulateurs réfléchissent aux mandats, les décideurs politiques discutent des garde-fous et les développeurs débattent des contrôles techniques. Ces questions sont importantes, mais elles négligent le principal moteur de la gouvernance responsable de l’IA : les personnes qui utilisent ces systèmes chaque jour. Sans investissement dans les capacités de la main-d’œuvre, les organisations risquent d’incorporer des dommages dans leurs opérations et de se retrouver responsables lorsque les choses tournent mal.

L’adoption de l’IA ne attend pas la gouvernance

Les entreprises intègrent des outils d’IA où elles le peuvent pour capturer des gains d’efficacité et de revenus, avec ou sans cadres de supervision en place. Le récent contexte au Royaume-Uni illustre cette tension entre gouvernance et innovation. Pendant que le Comité des finances avertissait que l’adoption ad hoc de l’IA dans le secteur financier risquait de causer des « dommages sérieux » à la société et à l’économie, une grande banque annonçait que l’adoption de l’IA avait augmenté ses revenus de 50 millions de livres sterling en 2025.

Le risque de gouvernance ne réside donc pas seulement dans le fait que l’IA avance rapidement. Il découle également du fait que l’IA est intégrée dans des lieux de travail où les employés ne sont pas équipés pour comprendre ses limites, ses échecs ou ses implications en matière de conformité. Cet écart est le terreau des nouvelles préoccupations en matière de gouvernance.

Les risques de gouvernance d’un déploiement de l’IA sans littératie

La conséquence la plus prévisible d’une adoption mal gouvernée de l’IA est ce que les praticiens appellent « l’IA de l’ombre ». Sans formation formelle, les employés se tournent vers des outils grand public non approuvés pour accomplir des tâches professionnelles, souvent sans divulgation. Au Royaume-Uni, 81 % des utilisateurs d’IA ne divulguent pas leur utilisation de l’IA à leurs gestionnaires. Des données sensibles peuvent être saisies dans des modèles publics qui conservent ou réutilisent les entrées pour un entraînement ultérieur, créant de nouveaux risques réglementaires et réputationnels.

Le problème se complique lorsque les employés ne comprennent pas comment l’IA fonctionne réellement. Le personnel peut traiter l’IA comme un moteur de recherche basé sur des faits plutôt que comme un moteur de raisonnement basé sur des modèles, échouant à évaluer de manière critique l’exactitude de ses résultats. Des cas largement rapportés de juristes sanctionnés pour avoir soumis des « hallucinations » générées par l’IA dans des dépôts judiciaires en témoignent. Lorsque les utilisateurs ne peuvent pas évaluer efficacement les résultats de l’IA, c’est leur employeur qui supporte la responsabilité, ce qui sape la confiance avec les clients et les régulateurs.

Le biais représente un autre front de gouvernance. Les systèmes d’IA héritent de modèles de leurs données d’entraînement. Si les employés ne reconnaissent pas les résultats discriminatoires, ils risquent d’incorporer un biais systémique dans les décisions opérationnelles. En 2021, cette question a été mise en lumière aux États-Unis par un rapport indiquant que les systèmes de prêt automatisés rejetaient jusqu’à 80 % des demandes de prêt hypothécaire des candidats noirs. Des échecs similaires ont depuis émergé dans les algorithmes utilisés pour évaluer les demandes d’aide sociale et d’emploi. D’un point de vue de la gouvernance, cela crée des risques éthiques, juridiques et réputationnels significatifs, sans parler des impacts plus larges sur les droits humains et la justice sociale.

Même lorsque des dommages ne se matérialisent pas, un déploiement sous-compétent limite le retour sur investissement. Les déploiements technologiques ne sont pas synonymes de transformation numérique. Sans workflows redessinés et employés formés, l’IA produit des gains de productivité fragmentés plutôt qu’un impact à l’échelle de l’entreprise.

Construire une gouvernance de bas en haut

En Europe, la dimension de la main-d’œuvre dans la gouvernance est déjà reconnue. La législation européenne sur l’IA inscrit la littératie en IA comme une exigence légale pour le personnel utilisant des systèmes d’IA. En l’absence d’une réglementation équivalente aux États-Unis, les entreprises doivent diriger cet effort elles-mêmes. D’après notre expérience de conseil auprès des organisations sur la gouvernance de l’IA, une approche crédible de bas en haut repose sur trois fondations interconnectées.

La première est la littératie en IA, différenciée par rôle. Pour les dirigeants, la littératie signifie savoir quelles questions poser : comment surveillons-nous le biais ? Qui est responsable de la performance des modèles ? Quand la révision humaine l’emporte-t-elle sur les résultats de l’IA ? Les dirigeants doivent être capables d’évaluer si l’IA est une réponse stratégiquement appropriée à un problème commercial, plutôt qu’une solution pratique.

Pour les équipes techniques, la littératie en IA signifie une gouvernance des données responsable, la validation des modèles, la surveillance des performances et la documentation. Pour les utilisateurs finaux dans d’autres rôles, tels que les recruteurs utilisant des outils de sélection basés sur l’IA, les spécialistes du marketing élaborant des campagnes assistées par l’IA ou les analystes utilisant l’IA générative comme assistants de recherche, la littératie est pratique et procédurale. Elle implique la compréhension des outils approuvés, la vérification des résultats, la connaissance des moyens d’escalader les préoccupations et l’application d’un jugement humain.

Les organisations avec lesquelles nous avons travaillé et qui sont en avance sur la courbe différencient la formation en littératie par rôle, la considérant comme une compétence opérationnelle liée à la responsabilité.

La deuxième fondation est la mise à jour des politiques et procédures. Des politiques d’utilisation acceptable claires réduisent la probabilité d’IA de l’ombre, préviennent la dépendance excessive aux résultats et clarifient la responsabilité des décisions assistées par l’IA.

Les politiques régissant les chaînes d’approvisionnement et l’approvisionnement en IA nécessitent un examen minutieux. Les fournisseurs d’IA devraient être soumis à une diligence raisonnable structurée couvrant la formation, la gouvernance des données, les processus d’atténuation des biais, les capacités de surveillance et la clarté contractuelle concernant la responsabilité.

Le troisième pilier est des structures de responsabilité claires tout au long du cycle de vie de l’IA. Cela peut inclure des comités de gouvernance IA interfonctionnels, des responsables de l’IA responsable, une supervision des risques au niveau du conseil ou l’engagement de fournisseurs d’assurance indépendants. La structure variera selon la taille et le secteur de l’organisation. Ce qui importe, c’est que la responsabilité soit claire et que la gouvernance soit intégrée dans le développement de produits, l’approvisionnement, la conformité et la gestion des risques, plutôt que traitée comme un exercice distinct.

La gouvernance responsable de l’IA comme un investissement, pas une contrainte

Les débats sur la gouvernance de l’IA continueront au niveau réglementaire. Les normes évolueront et les paysages d’application changeront. Beaucoup de ces facteurs restent en dehors du contrôle d’une seule entreprise. La capacité de la main-d’œuvre ne l’est pas.

Reformuler la gouvernance de l’IA autour de l’investissement dans les employés, de la mise à jour des politiques et de la responsabilité claire redonne du pouvoir aux dirigeants d’entreprise. Cela offre également un contrepoids constructif aux préoccupations concernant le déplacement d’emplois dû à l’IA : plutôt que de remplacer les travailleurs, une gouvernance responsable de l’IA les équipe et les forme. Les organisations qui prennent cela au sérieux seront mieux placées pour maintenir la confiance avec les clients, les régulateurs et le public à mesure que le contrôle de l’adoption de l’IA continue de croître.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...