Riesgos de IA en la Evolución de la Industria de Recursos Humanos

Abordando el riesgo de la IA a medida que evoluciona la industria de contratación

Como en la antigua Grecia, también en la contratación moderna: la única constante es el cambio.

En solo unos pocos años, los mercados se han expandido y luego contraído, las fuerzas geopolíticas han presentado nuevos desafíos y, por supuesto, la innovación tecnológica ha invadido la industria como un tsunami. No podemos controlar las fuerzas externas, pero podemos desarrollar un enfoque para el cambio, en particular, la llegada de la inteligencia artificial.

Regulación específica de la IA

A pesar del crecimiento explosivo de las herramientas de inteligencia artificial en la adquisición de talento, programación, seguimiento de productividad y análisis de la fuerza laboral, no existe un marco regulador federal integral que rija el uso de la IA en las decisiones de empleo. Esto crea un vacío regulatorio a nivel federal, combinado con un rápido surgimiento de requisitos estatales y locales.

California, Illinois, Colorado, la ciudad de Nueva York y varias otras jurisdicciones han intervenido en ese vacío. Aunque las regulaciones varían en alcance, comparten estos cuatro temas comunes:

  • Divulgación a candidatos y trabajadores cuando se utilizan herramientas de decisión automatizadas.
  • Transparencia sobre cómo funcionan esas herramientas y qué datos utilizan.
  • Evaluaciones de sesgo e impacto para probar resultados potencialmente discriminatorios.
  • Auditorías y requisitos de gobernanza continuos para asegurar el cumplimiento a lo largo del tiempo.

La orden ejecutiva de la Casa Blanca del 11 de diciembre de 2025, que pretende crear una política federal uniforme de IA y limitar la regulación estatal y local, podría eventualmente eliminar el mosaico de requisitos estatales y locales, pero aún no hay un cronograma para la eliminación de estos requisitos.

Legislación existente

Aun sin un régimen legal integral para la IA, las empresas de contratación no operan en un vacío legal. Las leyes de igualdad de oportunidades de empleo que han existido durante mucho tiempo ya regulan muchos de los riesgos que plantea la toma de decisiones impulsada por la IA. Los reguladores han sido explícitos en que estas leyes se aplican a los sistemas automatizados.

A nivel federal, el Título VII de la Ley de Derechos Civiles, la Ley de Estadounidenses con Discapacidades, la Ley de Discriminación por Edad en el Empleo y estatutos relacionados prohíben tanto la discriminación intencionada como las prácticas aparentemente neutrales que tienen un impacto desproporcionado en grupos protegidos. Estos principios son agnósticos a la tecnología. Si un algoritmo excluye a candidatos de manera que afecta desproporcionadamente a mujeres, trabajadores mayores, personas con discapacidades o minorías raciales, por ejemplo, y ese impacto no puede justificarse por necesidad comercial, el hecho de que una máquina haya tomado la decisión no aísla al empleador de la responsabilidad.

Las leyes estatales a menudo van más allá. La Ley de Empleo y Vivienda Justa de California, por ejemplo, proporciona protecciones más amplias que la ley federal, cubre características protegidas adicionales y impone obligaciones afirmativas a los empleadores para prevenir la discriminación y el acoso. Illinois, Nueva York, Nueva Jersey y otros estados mantienen regímenes robustos de igualdad de oportunidades. Para las empresas de contratación, esto significa que las herramientas de IA utilizadas en cualquier parte del ciclo de talento deben ser evaluadas a través de la misma lente de cumplimiento que históricamente se ha aplicado a los tomadores de decisiones humanos.

Ética

Por último, el uso de la IA en decisiones relacionadas con el empleo plantea riesgos más profundos que el cumplimiento normativo. Los principios humanos fundamentales siempre han impulsado la ley laboral. Nuestros marcos legales hacen espacio para el crecimiento, la explicación, la acomodación y la redención. Un candidato con un historial laboral no lineal, una terminación pasada o un trasfondo no convencional no debe ser excluido permanentemente de la oportunidad por una regla inflexible.

Sistemas de IA mal diseñados o mal gobernados amenazan con consolidar sesgos pasados, congelar a las personas en el tiempo o eliminar la discreción por completo. Cuando las decisiones se vuelven opacas, automatizadas y no revisables, el riesgo no es solo un impacto dispar, sino la pérdida del juicio humano donde más importa.

Para las empresas de contratación, la conclusión es clara: la IA debe aumentar, no reemplazar, la toma de decisiones legal, justa y humana. Una estrategia de riesgo de IA reflexiva reconoce que el cumplimiento no se trata solo de evitar acciones de ejecución, sino de preservar los valores que subyacen a la relación laboral misma.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...