Comentario: Por qué la inteligencia artificial para el bienestar en el lugar de trabajo necesita una nueva ética de consentimiento
A lo largo de los EE. UU. y a nivel global, los empleadores, incluidas corporaciones, sistemas de salud, universidades y organizaciones sin fines de lucro, están aumentando la inversión en el bienestar de los trabajadores. El mercado global de bienestar corporativo alcanzó los 53.5 mil millones de dólares en ventas en 2024, con América del Norte liderando la adopción. Los programas de bienestar corporativo ahora utilizan inteligencia artificial para monitorear el estrés, rastrear el riesgo de agotamiento o recomendar intervenciones personalizadas.
Los proveedores que ofrecen plataformas de bienestar habilitadas por IA, chatbots y herramientas de seguimiento del estrés están expandiéndose rápidamente. Los chatbots como Woebot y Wysa se están integrando cada vez más en los programas de bienestar en el lugar de trabajo.
Recientemente, una plataforma de salud de la India se asoció con una fintech para integrar la atención médica corporativa impulsada por IA directamente en los sistemas de nómina, incrustando análisis de bienestar en la infraestructura laboral de rutina en lugar de tratar el apoyo a la salud mental como un beneficio separado. Implementaciones similares están surgiendo en diversos sectores.
Aunque no hay datos públicos que cuantifiquen de manera confiable cuántos trabajadores utilizan herramientas de bienestar basadas en IA, el crecimiento del mercado y la proliferación de proveedores sugieren que estos sistemas ya alcanzan a millones de trabajadores. El mercado de aplicaciones de salud mental basadas en chatbots solo se estima en 2.1 mil millones de dólares en 2025, proyectándose que crecerá a 7.5 mil millones de dólares para 2034.
Potencial de la IA en el bienestar laboral
Los observadores informan que la IA puede potencialmente mejorar el bienestar en el lugar de trabajo al analizar patrones de fatiga de los empleados, programar micro-descansos y señalar signos tempranos de sobrecarga. Herramientas como Virtuosis AI pueden analizar patrones de voz y habla durante las reuniones para detectar estrés y tensión emocional en los trabajadores.
A simple vista, estas tecnologías prometen cuidado, prevención y apoyo. Imagina a tu supervisor preguntando: “¿Te gustaría probar esta nueva herramienta de IA que ayuda a monitorear el estrés y el bienestar? Es completamente opcional, por supuesto.” La oferta suena solidaria, incluso generosa. Pero si eres como la mayoría de los empleados, no realmente sientes que puedes rechazarla.
La ilusión del consentimiento
El consentimiento ofrecido en presencia de poder gerencial nunca es solo consentimiento; es una actuación, a menudo una obligación tácita. A medida que las herramientas de bienestar basadas en IA se infiltran más en los lugares de trabajo, esta ilusión de elección se vuelve aún más frágil.
Los riesgos ya no son hipotéticos: algunas empresas han enfrentado críticas públicas sobre el monitoreo del lugar de trabajo enmarcado en el bienestar, planteando preocupaciones sobre cómo la retórica del bienestar puede justificar una expansión de la vigilancia.
Desafíos del consentimiento informado
El centro de esta tensión es el ideal de consentimiento informado, que durante décadas ha sido la base ética de la recolección de datos. Si a las personas se les dice qué datos se recopilan, cómo se utilizarán y qué riesgos conlleva, entonces su acuerdo se considera significativo. Sin embargo, este modelo falla cuando se aplica a herramientas de bienestar impulsadas por IA.
En primer lugar, el consentimiento informado asume un único momento estático de acuerdo, mientras que los sistemas de IA operan de manera continua. Un trabajador puede hacer clic en “sí” una vez, pero el sistema recopila señales conductuales y fisiológicas a lo largo del día, ninguna de las cuales era completamente previsible cuando el trabajador aceptó. Parece injusto que el consentimiento sea un acto único, mientras que la recolección de datos continúa indefinidamente.
En segundo lugar, la información que los trabajadores reciben durante el consentimiento a menudo es inadecuada, vaga o demasiado compleja. Los avisos de privacidad prometen que los datos serán «agregados», «anónimos» o utilizados para «mejorar el compromiso», frases que oscurecen la realidad de que los sistemas de IA generan inferencias sobre el estado de ánimo, el estrés o la desconexión. Incluso cuando las divulgaciones son técnicamente correctas, son demasiado complejas para que los trabajadores las entiendan de manera significativa.
Fatiga del consentimiento
Los trabajadores enfrentan constantes solicitudes: actualizaciones de políticas, banners de cookies, nuevos permisos de aplicaciones. Eventualmente, uno podría hacer clic en “sí” simplemente para continuar trabajando. El consentimiento se convierte más en un reflejo o una conveniencia que en una elección.
Las empresas han hecho progresos significativos en el apoyo al bienestar, y la IA puede ayudar genuinamente cuando se implementa de manera reflexiva. Sin embargo, incluso con un apoyo estructural ampliado y tecnologías prometedoras, la mentalidad en torno al trabajo y las expectativas de los trabajadores no ha evolucionado al mismo ritmo.
Construyendo un entorno de consentimiento real
Si los empleadores desean un consentimiento significativo, deben ir más allá del cumplimiento de casillas y crear condiciones donde el consentimiento afirmativo y continuo sea realmente posible. La participación debe ser genuinamente voluntaria.
Optar por no participar no debe conllevar ninguna penalización social o profesional, ya sea explícita o implícita. Las prácticas de datos deben ser transparentes y auditables. Lo más importante, el bienestar debe estar arraigado en la cultura organizacional, no en la esperanza de que un algoritmo pueda solucionar problemas estructurales o expectativas poco realistas.
El verdadero desafío no es perfeccionar la IA que afirma cuidar a los trabajadores, sino construir lugares de trabajo donde el cuidado ya esté incrustado, donde el consentimiento sea real, la autonomía sea respetada y la tecnología apoye a las personas.