Réinventer le consentement éthique pour l’IA au travail

A digital hourglass with a transparent, glowing core that pulses with different colors to represent varying levels of consent and data transparency.

Commentaire : Pourquoi l’IA de bien-être au travail nécessite une nouvelle éthique du consentement

À travers les États-Unis et à l’échelle mondiale, les employeurs, y compris les entreprises, les systèmes de santé, les universités et les organisations à but non lucratif, augmentent leurs investissements dans le bien-être des travailleurs. Le marché mondial du bien-être d’entreprise a atteint 53,5 milliards de dollars de ventes en 2024, avec l’Amérique du Nord en tête de l’adoption. Les programmes de bien-être d’entreprise utilisent désormais l’IA pour surveiller le stress, suivre le risque d’épuisement professionnel ou recommander des interventions personnalisées.

Les fournisseurs d’outils de bien-être activés par l’IA, tels que les chatbots et les outils de suivi du stress, se développent rapidement. Des chatbots tels que Woebot et Wysa sont de plus en plus intégrés dans les programmes de bien-être au travail.

Récemment, des plateformes de santé ont intégré des soins de santé corporatifs pilotés par l’IA directement dans les systèmes de paie, intégrant ainsi l’analyse du bien-être dans l’infrastructure d’emploi de routine plutôt que de traiter le soutien en santé mentale comme un avantage distinct. Des déploiements similaires émergent dans divers secteurs.

Risques et défis du consentement

Bien que les données publiques ne quantifient pas de manière fiable combien de travailleurs utilisent des outils de bien-être basés sur l’IA, la croissance du marché et la prolifération des fournisseurs suggèrent que ces systèmes atteignent déjà des millions de travailleurs. Le marché des applications de santé mentale basées sur des chatbots est estimé à 2,1 milliards de dollars en 2025, avec une prévision de croissance à 7,5 milliards de dollars d’ici 2034.

D’un point de vue superficiel, ces technologies promettent des soins, de la prévention et du soutien. Cependant, le consentement donné dans un contexte de pouvoir managérial n’est jamais véritablement libre. En effet, ce consentement devient une performance, souvent une obligation tacite. À mesure que les outils de bien-être de l’IA s’immiscent dans les lieux de travail, cette illusion de choix devient de plus en plus fragile.

Les risques ne sont pas seulement hypothétiques. Certaines entreprises ont été critiquées pour avoir lié la surveillance au bien-être, soulevant des préoccupations sur la manière dont le discours sur le bien-être peut justifier une surveillance accrue.

Le besoin d’un nouveau modèle de consentement

Au cœur de cette tension se trouve l’idéal du consentement éclairé, qui a été pendant des décennies l’éthique de base de la collecte de données. Si les travailleurs savent quelles données sont collectées, comment elles seront utilisées et quels risques elles comportent, alors leur accord est considéré comme significatif. Cependant, ce modèle échoue lorsqu’il est appliqué aux outils de bien-être pilotés par l’IA.

Premièrement, le consentement éclairé suppose un moment d’accord unique et statique, tandis que les systèmes d’IA fonctionnent de manière continue. Deuxièmement, les informations que les travailleurs reçoivent lors du consentement sont souvent inadéquates, vagues ou trop complexes. En fin de compte, le consentement devient un réflexe ou une commodité plutôt qu’un choix.

Vers une culture de consentement significatif

Les entreprises doivent aller au-delà de la conformité par simple case à cocher et créer des conditions où le consentement affirmatif et continu est véritablement possible. La participation doit être véritablement volontaire, et le fait de refuser ne doit pas entraîner de pénalité sociale ou professionnelle, explicite ou implicite.

Le véritable défi n’est pas de perfectionner l’IA qui prétend se soucier des travailleurs, mais de construire des lieux de travail où le soin est déjà intégré, où le consentement est réel, l’autonomie est respectée et la technologie soutient les personnes.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...