Tendencias de IA para 2026: Navegando el Patchwork de Leyes y Riesgos al Usar Herramientas de IA en el Empleo
A medida que los empleadores implementan herramientas de IA para optimizar funciones clave de recursos humanos, desde la selección de currículos hasta la gestión del rendimiento, estas herramientas ya no son experimentales en 2026. Algunas empresas las están integrando en funciones centrales de recursos humanos. Sin embargo, el escrutinio por parte de legisladores, reguladores y abogados de demandantes sobre el uso de estas herramientas está aumentando rápidamente, quienes buscan regular y presentar reclamaciones relacionadas con su uso.
Cumpliendo con las Leyes de IA en Expansión
Navegar por el creciente y en evolución patchwork de leyes de IA en EE. UU. y en el extranjero es un desafío significativo para las empresas. Muchos estados y ciudades han aprobado o están considerando emitir sus propias leyes de IA, muchas de las cuales entrarán en vigor en 2026. Estas leyes incluyen auditorías de sesgo, evaluaciones de riesgos y políticas, requisitos de divulgación, derechos de exclusión, retención de datos y reportes gubernamentales.
Además, se ha emitido una orden ejecutiva que intenta restringir significativamente a los estados la regulación de la IA de una manera que entre en conflicto con las prioridades federales. En ausencia de una clara preeminencia federal, los empleadores deben determinar cómo crear estrategias y políticas coherentes para cumplir con las leyes al usar herramientas de IA en su fuerza laboral.
Aumento del Riesgo de Reclamos por Discriminación
La tendencia de los reguladores y abogados de demandantes a presentar reclamos por discriminación contra empleadores por el uso de herramientas de IA probablemente continuará en 2026. Los empleadores deben asegurarse de que sus herramientas de IA no discriminen a empleados o solicitantes, ya que «el algoritmo lo hizo» no es una defensa válida. Los empleadores son plenamente responsables de los resultados de las herramientas de IA que implementan.
Asegurando el Cumplimiento de las Leyes Laborales Existentes
Los empleadores también deben confirmar que cualquier herramienta de IA utilizada cumple con las leyes laborales existentes, considerando adecuadamente las adaptaciones para discapacidades y los riesgos relacionados con salarios y horas. Además, los empleadores sindicalizados deben considerar si necesitan negociar con representantes sindicales antes de implementar herramientas de IA que puedan afectar los términos y condiciones del empleo.
Políticas y Controles para Navegar los Retos
Para navegar estos y otros temas, los empleadores deben establecer buenas políticas y controles al utilizar IA para funciones de recursos humanos. Algunas acciones recomendadas incluyen:
Desarrollar Políticas de Gobernanza de IA
Los empleadores deben implementar políticas claras sobre cuándo y cómo se puede utilizar la IA en reclutamiento, contratación, seguimiento del tiempo de trabajo y productividad. Estas políticas deben incluir supervisión humana adecuada y requisitos legales que deben considerarse.
Evaluar Proveedores
Los proveedores deben ser transparentes sobre cómo funcionan sus sistemas de IA, incluyendo cómo han sido probados por sesgo y su accesibilidad para personas con discapacidades. Se debe asegurar un compromiso contractual de pruebas continuas de sesgo por parte de los proveedores.
Auditar Herramientas de IA por Sesgo
Las auditorías de sesgo son esenciales y deben realizarse de acuerdo con los requisitos legales para mitigar riesgos de discriminación, evaluando no solo los resultados por grupos protegidos, sino también los datos de entrenamiento y cómo se utilizan las herramientas en la práctica.
Proporcionar Supervisión y Capacitación Adecuadas
La capacitación adecuada para quienes usan herramientas de IA en funciones de recursos humanos es crucial. Los profesionales de recursos humanos deben entender las limitaciones de estas herramientas y saber cuándo debe intervenir el juicio humano en lugar de depender de los resultados automatizados.