Ética do Consentimento em IA para o Bem-Estar no Trabalho

Comentário: Por que a IA de bem-estar no local de trabalho precisa de uma nova ética de consentimento

Nos Estados Unidos e globalmente, empregadores – incluindo corporações, sistemas de saúde, universidades e organizações sem fins lucrativos – estão aumentando o investimento no bem-estar dos trabalhadores. O mercado global de bem-estar corporativo alcançou vendas de 53,5 bilhões de dólares em 2024, com a América do Norte liderando a adoção. Os programas de bem-estar corporativo agora utilizam IA para monitorar estresse, rastrear risco de burnout ou recomendar intervenções personalizadas.

Fornecedores que oferecem plataformas de bem-estar habilitadas por IA, chatbots e ferramentas de rastreamento de estresse estão se expandindo rapidamente. Chatbots como Woebot e Wysa estão cada vez mais integrados aos programas de bem-estar no local de trabalho.

Recentemente, uma plataforma de saúde indiana fez parceria com uma fintech para integrar cuidados de saúde corporativos impulsionados por IA diretamente nos sistemas de folha de pagamento, incorporando análises de bem-estar na infraestrutura de emprego rotineira, em vez de tratar o suporte à saúde mental como um benefício separado. Implantações semelhantes estão surgindo em vários setores.

Embora não haja dados públicos que quantifiquem de forma confiável quantos trabalhadores usam ferramentas de bem-estar baseadas em IA, o crescimento do mercado e a proliferação de fornecedores sugerem que esses sistemas já alcançam milhões de trabalhadores. O mercado para aplicativos de saúde mental baseados em chatbots é estimado em 2,1 bilhões de dólares em 2025, projetado para crescer para 7,5 bilhões de dólares até 2034.

Observadores relatam que a IA pode potencialmente aprimorar o bem-estar no local de trabalho ao analisar padrões de fadiga dos funcionários, agendar micro-pausas e sinalizar os primeiros sinais de sobrecarga. Ferramentas como a IA Virtuosis podem analisar padrões de voz e fala durante reuniões para detectar estresse e tensão emocional dos trabalhadores.

Desafios do Consentimento

À primeira vista, essas tecnologias prometem cuidado, prevenção e suporte. Imagine seu supervisor perguntando: “Você gostaria de experimentar esta nova ferramenta de IA que ajuda a monitorar estresse e bem-estar? Totalmente opcional, é claro.”

A oferta parece solidária, até generosa. Mas, se você é como a maioria dos empregados, não se sente realmente livre para recusar. O consentimento oferecido na presença do poder gerencial nunca é apenas consentimento – é uma performance, muitas vezes uma obrigação tácita. E à medida que as ferramentas de bem-estar baseadas em IA penetram mais profundamente nos ambientes de trabalho, essa ilusão de escolha se torna ainda mais frágil.

Os riscos não são mais hipotéticos: empresas têm enfrentado críticas públicas sobre monitoramento de produtividade vinculado ao bem-estar, levantando preocupações sobre como a retórica de bem-estar pode justificar uma vigilância crescente.

No centro dessa tensão está o ideal de consentimento informado, que durante décadas foi a espinha dorsal ética da coleta de dados. Se as pessoas são informadas sobre quais dados estão sendo coletados, como serão usados e quais riscos isso envolve, então seu acordo é considerado significativo. Mas esse modelo falha quando aplicado às ferramentas de bem-estar impulsionadas por IA.

Primeiro, o consentimento informado assume um momento único e estático de acordo, enquanto os sistemas de IA operam continuamente. Um trabalhador pode clicar em “sim” uma vez, mas o sistema coleta sinais comportamentais e fisiológicos ao longo do dia – nenhum dos quais era totalmente previsível quando o trabalhador concordou. Parece injusto que o consentimento seja um ato único, enquanto a coleta de dados continua indefinidamente.

Em segundo lugar, as informações que os trabalhadores recebem durante o consentimento são frequentemente inadequadas, vagas ou complexas demais. Avisos de privacidade prometem que os dados serão “agregados”, “anonimizados” ou usados para “melhorar o engajamento” – frases que obscurecem a realidade de que sistemas de IA geram inferências sobre humor, estresse ou desengajamento. Mesmo quando as divulgações são tecnicamente corretas, elas são complexas demais para que os trabalhadores entendam de maneira significativa.

Além disso, existe a fadiga do consentimento. Os trabalhadores enfrentam constantes solicitações – atualizações de políticas, banners de cookies, novas permissões de aplicativos. Eventualmente, alguém pode clicar em “sim” apenas para continuar trabalhando. O consentimento se torna um reflexo ou conveniência, em vez de uma escolha.

O Caminho a Seguir

Embora os locais de trabalho tenham feito progressos significativos no apoio ao bem-estar, a IA pode realmente ajudar quando implementada de forma reflexiva. No entanto, mesmo com suporte estrutural expandido e tecnologias promissoras, a mentalidade em torno do trabalho e das expectativas dos trabalhadores não acompanhou, moldando como as ferramentas de bem-estar são experienciadas e muitas vezes fazendo os trabalhadores se sentirem compelidos a dizer sim, mesmo quando enquadradas como “opcionais”.

Mesmo os avisos de consentimento perfeitos não podem superar o poder no local de trabalho. Os trabalhadores sabem que gerentes controlam avaliações, promoções e cargas de trabalho. Recusar uma ferramenta de bem-estar “voluntária” pode parecer arriscado, mesmo que as consequências sejam não ditas. O consentimento se torna um reflexo da política do local de trabalho, em vez de uma expressão de autonomia pessoal.

Baseando-se em teorias feministas de consentimento sexual, o modelo FRIES de consentimento afirmativo – Livre, Reversível, Informado, Entusiástico e Específico – oferece uma perspectiva clara para avaliar o uso de IA no local de trabalho.

O consentimento não é livremente dado quando recusar parece arriscado. Não é reversível quando retirar mais tarde convida escrutínio. Não é informado quando a inferência de IA é opaca ou evolutiva. Raramente é entusiástico; muitos trabalhadores dizem sim por autoproteção. E quase nunca é específico; optar por uma única função muitas vezes autoriza muito mais coleta de dados do que os trabalhadores percebem.

Nossa pesquisa sobre tecnologias de bem-estar no local de trabalho revelou que os trabalhadores enfatizaram que o consentimento significativo requer mudanças não apenas na tecnologia, mas nas políticas e práticas organizacionais ao seu redor – sublinhando que o consentimento no local de trabalho é um problema estrutural, algo que requer soluções sociotécnicas, e não apenas melhores telas de divulgação.

Se os empregadores desejam um consentimento significativo, devem ir além da conformidade de checkbox e criar condições onde o consentimento afirmativo e contínuo seja realmente possível. A participação deve ser genuinamente voluntária.

Optar por sair não deve acarretar penalidades sociais ou profissionais – nem explícitas nem implícitas. As práticas de dados precisam ser transparentes e auditáveis. Mais importante ainda, o bem-estar deve estar enraizado na cultura organizacional – e não na esperança de que um algoritmo possa resolver problemas estruturais ou expectativas irreais.

O verdadeiro desafio não é aperfeiçoar a IA que afirma se preocupar com os trabalhadores, mas construir locais de trabalho onde o cuidado já esteja incorporado – onde o consentimento seja real, a autonomia respeitada e a tecnologia apoie as pessoas.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...