Uso de la IA en el lugar de trabajo: ¿Qué deben hacer los empleadores ahora para gestionar el riesgo?
Las herramientas de inteligencia artificial, particularmente la IA generativa, se utilizan cada vez más en el lugar de trabajo, a menudo a través de una adopción informal impulsada por empleados individuales en lugar de decisiones de implementación a nivel empresarial. Aunque la regulación integral de la inteligencia artificial sigue siendo incierta, el trabajo asistido por IA ya es una realidad para muchos empleadores, frecuentemente sin orientación formal, supervisión o documentación. Como resultado, los empleadores pueden carecer de información sobre cómo se están utilizando estas herramientas, qué datos se están compartiendo y quién es responsable de los resultados asistidos por IA, lo que crea exposición antes de que surja un problema.
Cómo se utiliza la inteligencia artificial en el lugar de trabajo
A través de diversas industrias, los empleados están utilizando herramientas habilitadas por IA para asistir en actividades laborales tanto rutinarias como sustantivas. Los usos comunes incluyen la redacción de comunicaciones escritas, políticas y documentación de desempeño; la evaluación o resumen de solicitudes de empleo y currículos; la preparación de materiales de evaluación; la generación de contenido de capacitación o guías internas; y la asistencia con documentación disciplinaria o de despido. Muchas de estas herramientas están disponibles públicamente o integradas en plataformas de software existentes. En muchas organizaciones, las herramientas de IA se utilizan sin coordinación con funciones legales, de recursos humanos o de tecnología de la información. Si bien dicho uso puede aumentar la eficiencia, también puede introducir riesgos donde los empleadores carecen de parámetros claros que rijan el uso aceptable, la supervisión adecuada y la responsabilidad.
Áreas clave de riesgo relacionadas con el empleo
El uso no gestionado de la IA puede implicar varias áreas del derecho laboral y riesgos en el lugar de trabajo, particularmente donde los resultados asistidos por IA influyen en decisiones laborales.
Privacidad y confidencialidad de los datos
Los empleados pueden introducir información sensible en herramientas de IA, incluidos datos de empleados y solicitantes, detalles de compensación, información médica o información confidencial de negocios. Dependiendo de la herramienta y su configuración, esta información puede ser retenida, procesada o utilizada de maneras que no son completamente transparentes para el empleador, aumentando el riesgo de privacidad, confidencialidad y cumplimiento.
Decisiones de contratación, promoción y disciplina
El cribado, evaluación o redacción asistidos por IA relacionados con decisiones laborales pueden generar preocupaciones sobre sesgos, impacto desigual y precisión en la documentación. Estos riesgos se incrementan donde se utilizan herramientas de IA para influir o apoyar decisiones de contratación, promoción, disciplina o despido sin estándares claros, transparencia respecto a las entradas, revisión independiente por humanos y responsabilidad por la toma de decisiones finales.
Precisión y fiabilidad del contenido generado por IA
El contenido generado por IA es inherentemente susceptible a inexactitudes, incluyendo lo que se conoce como alucinaciones: resultados que parecen autoritativos o plausibles pero que son inexactos, incompletos o fabricados. Cuando los empleadores dependen de contenido generado por IA sin una verificación humana significativa, pueden no ser capaces de defender crediblemente la precisión o la base de ese contenido si se cuestiona posteriormente. El uso de salidas de IA no verificadas en archivos de personal, decisiones laborales o comunicaciones externas puede aumentar significativamente la exposición a litigios y regulaciones. Este riesgo se acentúa donde un empleador no puede explicar por qué se confió en información errónea o demostrar que se realizó una revisión humana significativa antes de que se usara el contenido.
Consideraciones sobre litigios y descubrimiento
El uso de herramientas de IA puede complicar significativamente las obligaciones de descubrimiento y crear exposición a litigios una vez que surge un conflicto. Los empleadores pueden verse obligados a identificar qué herramientas de IA se utilizaron en relación con decisiones laborales disputadas, producir indicaciones o entradas ingresadas en sistemas de IA, explicar cómo se revisaron las salidas generadas por IA y se incorporaron en decisiones finales, demostrar qué supervisión humana ocurrió y por quién, y preservar el contenido generado por IA relevante para la disputa. La credibilidad de un empleador puede verse socavada si no puede articular claramente cómo se utilizaron las herramientas de IA, quién ejerció juicio y si las decisiones fueron impulsadas por razonamiento humano en lugar de una salida automatizada. En ausencia de políticas, controles y documentación claros, responder a estas demandas puede ser laborioso, costoso y perjudicial para la postura de litigio de un empleador.
Observaciones de la práctica actual: una brecha de gobernanza
A través de las organizaciones, está surgiendo una brecha de gobernanza consistente en torno al uso de la IA en el lugar de trabajo. Los empleados suelen utilizar herramientas de IA generativa sin aprobación, orientación o capacitación, y frecuentemente no hay claridad organizacional sobre qué información puede o no ser ingresada en los sistemas de IA. Las prácticas de uso de IA comúnmente varían entre departamentos dentro de la misma organización, con poca coordinación o supervisión centralizada. A menudo, los empleados reciben capacitación limitada sobre las limitaciones de la IA, los riesgos asociados o la necesidad de verificación humana de los resultados generados por IA. También frecuentemente no hay una clara responsabilidad por el producto de trabajo asistido por IA, y documentación limitada sobre qué herramientas de IA se están utilizando o cómo se están desplegando. Estas brechas no son teóricas; a menudo se hacen visibles solo cuando un empleador debe defender una decisión laboral y explicar qué papel, si lo hubo, desempeñó la IA en esa decisión.
Elementos de una política efectiva de uso de IA
Una política de uso de IA bien diseñada cumple múltiples funciones de gestión de riesgos. Establece límites claros para el uso aceptable, crea responsabilidad por el producto de trabajo asistido por IA, y ayuda a generar documentación que puede ser crítica para defender decisiones laborales. No existe un modelo único que se ajuste a cada organización, pero las políticas efectivas abordan de manera consistente un conjunto central de cuestiones. Estos temas generalmente incluyen definir el alcance de las herramientas de IA cubiertas y las características habilitadas por IA; especificar usos permitidos y prohibidos; restringir los tipos de datos que pueden ingresarse en los sistemas de IA, incluidos datos personales de empleados e información confidencial de negocios; y requerir una revisión humana significativa antes de que se confíe en los resultados asistidos por IA. Las políticas efectivas también abordan barreras para el uso de IA en decisiones de contratación, promoción, disciplina y despido; supervisión de la funcionalidad de IA integrada en plataformas de terceros; expectativas de diligencia con proveedores; y responsabilidad por el producto de trabajo asistido por IA. Las políticas son más efectivas cuando son prácticas, están claramente redactadas y alineadas con la forma en que los empleados realizan su trabajo.
Pasos que los empleadores deben considerar ahora
Los empleadores no necesitan resolver de inmediato cada problema relacionado con la IA, pero varios pasos a corto plazo pueden reducir significativamente el riesgo. Los empleadores deben comenzar identificando cómo se están utilizando actualmente las herramientas de IA dentro de la organización, incluidas las funcionalidades de IA integradas en plataformas de terceros. También deben considerar adoptar orientaciones políticas básicas que definan usos permitidos, prohíban categorías específicas de entradas y requieran una supervisión humana significativa antes de que se confíe en los resultados asistidos por IA. La capacitación específica para el personal de recursos humanos, gerentes y otros usuarios suele ser esencial para garantizar una implementación consistente y reforzar las expectativas de verificación. Por último, los empleadores pueden desear revisar los procesos de contratación, promoción, gestión del rendimiento y disciplina para determinar si se están utilizando herramientas de IA y si hay controles apropiados en su lugar. La coordinación entre funciones legales, de recursos humanos, tecnología de la información, cumplimiento y adquisiciones puede ayudar a monitorear los términos del proveedor, mantener la documentación y actualizar la orientación interna a medida que evolucionan los requisitos legales y las prácticas comerciales.
Mirando hacia el futuro
Las herramientas de inteligencia artificial continuarán evolucionando, así como el panorama legal y regulatorio que rige su uso en el lugar de trabajo. Los empleadores que adopten un enfoque medido y práctico ahora, con un enfoque en la gobernanza, la responsabilidad y la capacitación, estarán mejor posicionados para adaptarse a medida que las expectativas sigan desarrollándose.