Commento: Perché l’AI per il benessere sul lavoro ha bisogno di una nuova etica del consenso
Negli Stati Uniti e a livello globale, i datori di lavoro, comprese le aziende, i sistemi sanitari, le università e le organizzazioni non profit, stanno aumentando gli investimenti nel benessere dei lavoratori. Il mercato globale del benessere aziendale ha raggiunto 53,5 miliardi di dollari di vendite nel 2024, con il Nord America in testa all’adozione. I programmi di benessere aziendale ora utilizzano l’AI per monitorare lo stress, tracciare il rischio di burnout e raccomandare interventi personalizzati.
I fornitori che offrono piattaforme di benessere abilitate all’AI, chatbot e strumenti di monitoraggio dello stress stanno rapidamente espandendo la loro offerta. Chatbot come Woebot e Wysa sono sempre più integrati nei programmi di benessere sul lavoro.
Recentemente, una piattaforma sanitaria indiana ha collaborato con una fintech per integrare l’assistenza sanitaria aziendale guidata dall’AI direttamente nei sistemi di pagamento, incorporando l’analisi del benessere nelle infrastrutture di impiego di routine invece di trattare il supporto alla salute mentale come un beneficio separato. Distribuzioni simili stanno emergendo in vari settori.
Sebbene non ci siano dati pubblici affidabili che quantifichino quanti lavoratori utilizzino strumenti di benessere AI, la crescita del mercato e la proliferazione dei fornitori suggeriscono che questi sistemi raggiungono già milioni di lavoratori. Il mercato delle app di salute mentale basate su chatbot è stimato in 2,1 miliardi di dollari nel 2025, con una crescita prevista fino a 7,5 miliardi di dollari entro il 2034.
Potenziale dell’AI nel benessere sul lavoro
Osservatori riportano che l’AI può potenzialmente migliorare il benessere sul lavoro analizzando i modelli di affaticamento dei dipendenti, programmando micro-pause e segnalando i primi segni di sovraccarico. Strumenti come Virtuosis AI possono analizzare modelli vocali e di linguaggio durante le riunioni per rilevare stress e tensione emotiva nei lavoratori.
A prima vista, queste tecnologie promettono cura, prevenzione e supporto. Immagina il tuo supervisore che chiede: “Vorresti provare questo nuovo strumento AI che aiuta a monitorare lo stress e il benessere? Completamente facoltativo, ovviamente.”
L’offerta sembra supportiva, persino generosa. Ma se sei come la maggior parte dei dipendenti, non ti senti realmente libero di rifiutare. Il consenso offerto in presenza di potere manageriale non è mai solo consenso: è una performance, spesso un obbligo tacito. E man mano che gli strumenti di benessere AI si infiltrano sempre di più nei luoghi di lavoro, questa illusione di scelta diventa ancora più fragile.
Rischi e implicazioni
I rischi non sono più ipotetici: alcune aziende hanno affrontato critiche pubbliche riguardo al monitoraggio del lavoro incentrato sul benessere, sollevando preoccupazioni su come la retorica del benessere possa giustificare un’espansione della sorveglianza.
Al centro di questa tensione c’è l’ideale del consenso informato, che per decenni è stata la spina dorsale etica della raccolta dei dati. Se le persone vengono informate sui dati raccolti, su come verranno utilizzati e sui rischi che comportano, il loro accordo è considerato significativo. Ma questo modello fallisce quando viene applicato agli strumenti di benessere guidati dall’AI.
Il consenso informato presume un momento unico e statico di accordo, mentre i sistemi AI operano continuamente. Un lavoratore può cliccare “sì” una volta, ma il sistema raccoglie segnali comportamentali e fisiologici durante tutta la giornata, nessuno dei quali era completamente prevedibile quando il lavoratore ha acconsentito. Sembra ingiusto che il consenso sia un atto unico, mentre la raccolta di dati continua indefinitamente.
Inoltre, le informazioni che i lavoratori ricevono durante il consenso sono spesso inadeguate, vaghe o troppo complesse. Le informative sulla privacy promettono che i dati saranno “aggregati”, “anonimizzati” o utilizzati per “migliorare il coinvolgimento” — frasi che offuscano la realtà che i sistemi AI generano inferenze su umore, stress o disimpegno. Anche quando le divulgazioni sono tecnicamente corrette, sono troppo complesse perché i lavoratori possano comprenderle significativamente. I lavoratori si trovano così a dare il consenso in mezzo a disuguaglianze di potere e complessità socio-organizzative.
Infine, c’è la fatica del consenso. I lavoratori affrontano costanti richieste — aggiornamenti delle politiche, banner dei cookie, nuove autorizzazioni per le app. Alla fine, si potrebbe cliccare “sì” semplicemente per continuare a lavorare. Il consenso diventa piuttosto un riflesso o una comodità piuttosto che una scelta.
Conclusioni
Le aziende hanno fatto progressi significativi nel supportare il benessere, e l’AI può realmente aiutare se implementata con attenzione. Tuttavia, anche con un supporto strutturale espanso e tecnologie promettenti, la mentalità riguardo al lavoro e alle aspettative dei lavoratori non è progredita di pari passo — modellando come gli strumenti di benessere siano vissuti e spesso facendo sentire i lavoratori costretti a dire di sì, anche quando inquadrati come “facoltativi.”
Anche le informative sul consenso perfette non possono superare il potere sul posto di lavoro. I lavoratori sanno che i manager controllano le valutazioni, le promozioni e i carichi di lavoro. Rifiutare uno strumento di benessere “volontario” può sembrare rischioso, anche se le conseguenze sono non espresse. Il consenso diventa un riflesso della politica aziendale piuttosto che un’espressione di autonomia personale.
Per ottenere un consenso significativo, i datori di lavoro devono superare la conformità a casella e creare condizioni in cui il consenso affermativo e continuo sia realmente possibile. La partecipazione deve essere genuinamente volontaria; rinunciare non deve comportare penalità sociali o professionali — né esplicite né implicite. Le pratiche di raccolta dati devono essere trasparenti e verificabili. E, cosa più importante, il benessere deve essere radicato nella cultura organizzativa — non nella speranza che un algoritmo possa risolvere problemi strutturali o aspettative irrealistiche.
La vera sfida non è perfezionare un’AI che afferma di prendersi cura dei lavoratori, ma costruire luoghi di lavoro dove la cura sia già integrata — dove il consenso è reale, l’autonomia è rispettata e la tecnologia supporta le persone.