Commentaire : Pourquoi l’IA de bien-être au travail nécessite une nouvelle éthique du consentement
À travers les États-Unis et à l’échelle mondiale, les employeurs, y compris les entreprises, les systèmes de santé, les universités et les organisations à but non lucratif, augmentent leurs investissements dans le bien-être des travailleurs. Le marché mondial du bien-être d’entreprise a atteint 53,5 milliards de dollars de ventes en 2024, avec l’Amérique du Nord en tête de l’adoption. Les programmes de bien-être d’entreprise utilisent désormais l’IA pour surveiller le stress, suivre le risque d’épuisement professionnel ou recommander des interventions personnalisées.
Les fournisseurs d’outils de bien-être activés par l’IA, tels que les chatbots et les outils de suivi du stress, se développent rapidement. Des chatbots tels que Woebot et Wysa sont de plus en plus intégrés dans les programmes de bien-être au travail.
Récemment, des plateformes de santé ont intégré des soins de santé corporatifs pilotés par l’IA directement dans les systèmes de paie, intégrant ainsi l’analyse du bien-être dans l’infrastructure d’emploi de routine plutôt que de traiter le soutien en santé mentale comme un avantage distinct. Des déploiements similaires émergent dans divers secteurs.
Risques et défis du consentement
Bien que les données publiques ne quantifient pas de manière fiable combien de travailleurs utilisent des outils de bien-être basés sur l’IA, la croissance du marché et la prolifération des fournisseurs suggèrent que ces systèmes atteignent déjà des millions de travailleurs. Le marché des applications de santé mentale basées sur des chatbots est estimé à 2,1 milliards de dollars en 2025, avec une prévision de croissance à 7,5 milliards de dollars d’ici 2034.
D’un point de vue superficiel, ces technologies promettent des soins, de la prévention et du soutien. Cependant, le consentement donné dans un contexte de pouvoir managérial n’est jamais véritablement libre. En effet, ce consentement devient une performance, souvent une obligation tacite. À mesure que les outils de bien-être de l’IA s’immiscent dans les lieux de travail, cette illusion de choix devient de plus en plus fragile.
Les risques ne sont pas seulement hypothétiques. Certaines entreprises ont été critiquées pour avoir lié la surveillance au bien-être, soulevant des préoccupations sur la manière dont le discours sur le bien-être peut justifier une surveillance accrue.
Le besoin d’un nouveau modèle de consentement
Au cœur de cette tension se trouve l’idéal du consentement éclairé, qui a été pendant des décennies l’éthique de base de la collecte de données. Si les travailleurs savent quelles données sont collectées, comment elles seront utilisées et quels risques elles comportent, alors leur accord est considéré comme significatif. Cependant, ce modèle échoue lorsqu’il est appliqué aux outils de bien-être pilotés par l’IA.
Premièrement, le consentement éclairé suppose un moment d’accord unique et statique, tandis que les systèmes d’IA fonctionnent de manière continue. Deuxièmement, les informations que les travailleurs reçoivent lors du consentement sont souvent inadéquates, vagues ou trop complexes. En fin de compte, le consentement devient un réflexe ou une commodité plutôt qu’un choix.
Vers une culture de consentement significatif
Les entreprises doivent aller au-delà de la conformité par simple case à cocher et créer des conditions où le consentement affirmatif et continu est véritablement possible. La participation doit être véritablement volontaire, et le fait de refuser ne doit pas entraîner de pénalité sociale ou professionnelle, explicite ou implicite.
Le véritable défi n’est pas de perfectionner l’IA qui prétend se soucier des travailleurs, mais de construire des lieux de travail où le soin est déjà intégré, où le consentement est réel, l’autonomie est respectée et la technologie soutient les personnes.