Etica del consenso nell’uso dell’AI per il benessere lavorativo

Commento: Perché l’AI per il benessere sul lavoro ha bisogno di una nuova etica del consenso

Negli Stati Uniti e a livello globale, i datori di lavoro, comprese le aziende, i sistemi sanitari, le università e le organizzazioni non profit, stanno aumentando gli investimenti nel benessere dei lavoratori. Il mercato globale del benessere aziendale ha raggiunto 53,5 miliardi di dollari di vendite nel 2024, con il Nord America in testa all’adozione. I programmi di benessere aziendale ora utilizzano l’AI per monitorare lo stress, tracciare il rischio di burnout e raccomandare interventi personalizzati.

I fornitori che offrono piattaforme di benessere abilitate all’AI, chatbot e strumenti di monitoraggio dello stress stanno rapidamente espandendo la loro offerta. Chatbot come Woebot e Wysa sono sempre più integrati nei programmi di benessere sul lavoro.

Recentemente, una piattaforma sanitaria indiana ha collaborato con una fintech per integrare l’assistenza sanitaria aziendale guidata dall’AI direttamente nei sistemi di pagamento, incorporando l’analisi del benessere nelle infrastrutture di impiego di routine invece di trattare il supporto alla salute mentale come un beneficio separato. Distribuzioni simili stanno emergendo in vari settori.

Sebbene non ci siano dati pubblici affidabili che quantifichino quanti lavoratori utilizzino strumenti di benessere AI, la crescita del mercato e la proliferazione dei fornitori suggeriscono che questi sistemi raggiungono già milioni di lavoratori. Il mercato delle app di salute mentale basate su chatbot è stimato in 2,1 miliardi di dollari nel 2025, con una crescita prevista fino a 7,5 miliardi di dollari entro il 2034.

Potenziale dell’AI nel benessere sul lavoro

Osservatori riportano che l’AI può potenzialmente migliorare il benessere sul lavoro analizzando i modelli di affaticamento dei dipendenti, programmando micro-pause e segnalando i primi segni di sovraccarico. Strumenti come Virtuosis AI possono analizzare modelli vocali e di linguaggio durante le riunioni per rilevare stress e tensione emotiva nei lavoratori.

A prima vista, queste tecnologie promettono cura, prevenzione e supporto. Immagina il tuo supervisore che chiede: “Vorresti provare questo nuovo strumento AI che aiuta a monitorare lo stress e il benessere? Completamente facoltativo, ovviamente.”

L’offerta sembra supportiva, persino generosa. Ma se sei come la maggior parte dei dipendenti, non ti senti realmente libero di rifiutare. Il consenso offerto in presenza di potere manageriale non è mai solo consenso: è una performance, spesso un obbligo tacito. E man mano che gli strumenti di benessere AI si infiltrano sempre di più nei luoghi di lavoro, questa illusione di scelta diventa ancora più fragile.

Rischi e implicazioni

I rischi non sono più ipotetici: alcune aziende hanno affrontato critiche pubbliche riguardo al monitoraggio del lavoro incentrato sul benessere, sollevando preoccupazioni su come la retorica del benessere possa giustificare un’espansione della sorveglianza.

Al centro di questa tensione c’è l’ideale del consenso informato, che per decenni è stata la spina dorsale etica della raccolta dei dati. Se le persone vengono informate sui dati raccolti, su come verranno utilizzati e sui rischi che comportano, il loro accordo è considerato significativo. Ma questo modello fallisce quando viene applicato agli strumenti di benessere guidati dall’AI.

Il consenso informato presume un momento unico e statico di accordo, mentre i sistemi AI operano continuamente. Un lavoratore può cliccare “sì” una volta, ma il sistema raccoglie segnali comportamentali e fisiologici durante tutta la giornata, nessuno dei quali era completamente prevedibile quando il lavoratore ha acconsentito. Sembra ingiusto che il consenso sia un atto unico, mentre la raccolta di dati continua indefinitamente.

Inoltre, le informazioni che i lavoratori ricevono durante il consenso sono spesso inadeguate, vaghe o troppo complesse. Le informative sulla privacy promettono che i dati saranno “aggregati”, “anonimizzati” o utilizzati per “migliorare il coinvolgimento” — frasi che offuscano la realtà che i sistemi AI generano inferenze su umore, stress o disimpegno. Anche quando le divulgazioni sono tecnicamente corrette, sono troppo complesse perché i lavoratori possano comprenderle significativamente. I lavoratori si trovano così a dare il consenso in mezzo a disuguaglianze di potere e complessità socio-organizzative.

Infine, c’è la fatica del consenso. I lavoratori affrontano costanti richieste — aggiornamenti delle politiche, banner dei cookie, nuove autorizzazioni per le app. Alla fine, si potrebbe cliccare “sì” semplicemente per continuare a lavorare. Il consenso diventa piuttosto un riflesso o una comodità piuttosto che una scelta.

Conclusioni

Le aziende hanno fatto progressi significativi nel supportare il benessere, e l’AI può realmente aiutare se implementata con attenzione. Tuttavia, anche con un supporto strutturale espanso e tecnologie promettenti, la mentalità riguardo al lavoro e alle aspettative dei lavoratori non è progredita di pari passo — modellando come gli strumenti di benessere siano vissuti e spesso facendo sentire i lavoratori costretti a dire di sì, anche quando inquadrati come “facoltativi.”

Anche le informative sul consenso perfette non possono superare il potere sul posto di lavoro. I lavoratori sanno che i manager controllano le valutazioni, le promozioni e i carichi di lavoro. Rifiutare uno strumento di benessere “volontario” può sembrare rischioso, anche se le conseguenze sono non espresse. Il consenso diventa un riflesso della politica aziendale piuttosto che un’espressione di autonomia personale.

Per ottenere un consenso significativo, i datori di lavoro devono superare la conformità a casella e creare condizioni in cui il consenso affermativo e continuo sia realmente possibile. La partecipazione deve essere genuinamente volontaria; rinunciare non deve comportare penalità sociali o professionali — né esplicite né implicite. Le pratiche di raccolta dati devono essere trasparenti e verificabili. E, cosa più importante, il benessere deve essere radicato nella cultura organizzativa — non nella speranza che un algoritmo possa risolvere problemi strutturali o aspettative irrealistiche.

La vera sfida non è perfezionare un’AI che afferma di prendersi cura dei lavoratori, ma costruire luoghi di lavoro dove la cura sia già integrata — dove il consenso è reale, l’autonomia è rispettata e la tecnologia supporta le persone.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...