AI en Recursos Humanos: Riesgos Legales Clave y Consideraciones de Cumplimiento para 2025
La inteligencia artificial (IA) ha evolucionado rápidamente de ser un concepto futurista a convertirse en una herramienta práctica utilizada en el mundo empresarial moderno. En el ámbito de recursos humanos (RRHH), la IA ahora se encarga de redactar descripciones de trabajo, escanear currículos, realizar entrevistas por video e incluso generar evaluaciones de desempeño.
A pesar de que estas herramientas prometen eficiencia y ahorro de costos, también crean nuevos riesgos. Las reclamaciones por discriminación, los problemas de privacidad y las disputas de responsabilidad son parte del paisaje emergente. Para los empleadores, la clave radica en equilibrar la eficiencia con el cumplimiento y asegurarse de que la tecnología no socave la equidad ni exponga a la empresa a demandas evitables.
Cada vez más, los reguladores, tribunales y legisladores están prestando atención. Esto significa que los empleadores que se apresuren a adoptar la IA sin una estrategia de cumplimiento reflexiva pueden enfrentarse a litigios costosos o investigaciones gubernamentales. La conversación no solo se centra en lo que la IA puede hacer, sino en lo que la IA debe hacer en el contexto sensible de RRHH.
¿Qué cuenta como IA en RRHH hoy?
La IA se está implementando en varios procesos de RRHH, incluidos el reclutamiento, la gestión del desempeño y la compensación. Las plataformas de reclutamiento utilizan algoritmos para escanear currículos, chatbots interactúan con los solicitantes y algunas plataformas ayudan a las empresas a gestionar contrataciones a gran escala. Según la encuesta de la Society for Human Resource Management, poco más del 50% de los empleadores están utilizando IA en reclutamiento.
En la gestión del desempeño, la IA ahora puede rastrear la productividad, analizar estilos de comunicación e incluso sugerir programas de desarrollo para empleados. Algunos empleadores están comenzando a utilizar auditorías de equidad salarial impulsadas por IA para identificar disparidades entre departamentos y niveles de antigüedad. Sin embargo, esto solo funciona si los algoritmos son transparentes y están diseñados con equidad en mente.
Aunque la IA puede generar información rápidamente, también puede producir resultados falsos o engañosos, a veces referidos como «alucinaciones». Los empleadores que asumen que la salida de la IA es automáticamente correcta corren el riesgo de una responsabilidad significativa. La supervisión humana no es solo una mejor práctica; es una necesidad. Cuantas más decisiones se automaticen, mayores son las apuestas para asegurar una revisión humana.
Riesgos Legales y Consideraciones
Impacto Dispar y Discriminación
Uno de los mayores riesgos legales asociados con el uso de la IA en el proceso de reclutamiento es el concepto de impacto dispar, una política o práctica que parece neutral a simple vista pero que termina perjudicando a un grupo protegido. Un ejemplo actual es la demanda colectiva Mobley v. Workday, en la que los demandantes argumentan que el software discriminó a solicitantes de empleo mayores de 40 años en violación de la Age Discrimination in Employment Act (ADEA).
Este tipo de litigio subraya la necesidad de que los empleadores realicen la debida diligencia sobre las herramientas de IA y realicen auditorías de sesgo antes de confiar en los algoritmos para tomar decisiones laborales. Las reclamaciones por impacto dispar son particularmente peligrosas porque un empleador puede no darse cuenta de que sus prácticas son discriminatorias hasta que comienza el litigio.
¿Quién es Responsable Cuando la IA Se Equivoca?
Algunos empleadores asumen que externalizar RRHH a proveedores de terceros los protegerá de la responsabilidad. Esta es una percepción peligrosa. Los empleadores siguen siendo responsables de cumplir con las leyes de anti-discriminación y privacidad, independientemente de si el error se originó internamente o a través de un servicio de IA externo.
Los contratos con proveedores deben ser explícitos sobre la asignación de riesgos, y los empleadores también deben revisar su cobertura de seguros. El seguros de responsabilidad por prácticas laborales (EPLI) puede no cubrir ciertas reclamaciones relacionadas con la IA a menos que se compren cláusulas adicionales. Los empleadores también deben recordar que los principios de responsabilidad conjunta significan que tanto el proveedor como la empresa pueden ser responsables. Por ejemplo, si se encuentra que la herramienta de selección de currículos impulsada por IA discrimina a solicitantes con discapacidades, tanto el reclutador como la empresa contratante pueden ser responsables.
Regulación de la IA
Los estados están comenzando a regular cómo los empleadores pueden usar la IA en la contratación. Por ejemplo, la Illinois’ Artificial Intelligence Video Interview Act requiere que los empleadores revelen cuándo se utiliza IA en entrevistas por video y obtengan el consentimiento del solicitante. En Nueva York, leyes recientes exigen permiso antes de que una empresa pueda usar imágenes generadas por IA de empleados. Estas reglas reflejan una tendencia más amplia hacia la transparencia y el consentimiento informado.
Los empleadores deben mantenerse al día con los requisitos de divulgación en evolución, especialmente al usar IA en reclutamiento, evaluaciones o contenido de cara al público. Más allá de Illinois y Nueva York, estados como Maryland y California también están experimentando con legislación destinada a regular la IA en la contratación. A nivel internacional, la Unión Europea ha introducido su AI Act, que clasifica ciertos usos de la IA en el empleo como de alto riesgo y los somete a estrictos requisitos de transparencia y auditoría.
La Importancia de la Vigilancia y Adaptabilidad
El uso de la IA en los procesos de RRHH se está convirtiendo en una característica estándar del reclutamiento, la evaluación y la gestión de la fuerza laboral, pero la tecnología conlleva riesgos significativos si se utiliza sin la supervisión adecuada. La IA puede ser una herramienta poderosa para mejorar la eficiencia y la equidad, pero solo si los empleadores la utilizan de manera responsable y se mantienen vigilantes sobre el cumplimiento, la transparencia y el juicio humano.
Las empresas que tratan la IA como un punto ciego en el cumplimiento corren el riesgo de litigios, sanciones regulatorias y daños a su reputación. Aquellos que adoptan un enfoque proactivo no solo reducirán el riesgo legal, sino que también generarán confianza con empleados y solicitantes.
Los empleadores que utilizan IA en los flujos de trabajo de RRHH deben recordar:
- Realizar auditorías de sesgo regulares de las herramientas de IA
- Requerir revisión humana de los resultados generados por la IA
- Mantenerse actualizados con las leyes federales y estatales relacionadas con la IA en el empleo
- Revisar y actualizar contratos con proveedores para protecciones de responsabilidad
- Asegurarse de que el seguro de responsabilidad por prácticas laborales cubra los riesgos relacionados con la IA
- Capacitar a los profesionales de RRHH para identificar y responder a señales de alerta de la IA
- Mantener la transparencia con empleados y solicitantes sobre el uso de la IA