Abordando el riesgo de la IA a medida que evoluciona la industria de contratación
Como en la antigua Grecia, también en la contratación moderna: la única constante es el cambio.
En solo unos pocos años, los mercados se han expandido y luego contraído, las fuerzas geopolíticas han presentado nuevos desafíos y, por supuesto, la innovación tecnológica ha invadido la industria como un tsunami. No podemos controlar las fuerzas externas, pero podemos desarrollar un enfoque para el cambio, en particular, la llegada de la inteligencia artificial.
Regulación específica de la IA
A pesar del crecimiento explosivo de las herramientas de inteligencia artificial en la adquisición de talento, programación, seguimiento de productividad y análisis de la fuerza laboral, no existe un marco regulador federal integral que rija el uso de la IA en las decisiones de empleo. Esto crea un vacío regulatorio a nivel federal, combinado con un rápido surgimiento de requisitos estatales y locales.
California, Illinois, Colorado, la ciudad de Nueva York y varias otras jurisdicciones han intervenido en ese vacío. Aunque las regulaciones varían en alcance, comparten estos cuatro temas comunes:
- Divulgación a candidatos y trabajadores cuando se utilizan herramientas de decisión automatizadas.
- Transparencia sobre cómo funcionan esas herramientas y qué datos utilizan.
- Evaluaciones de sesgo e impacto para probar resultados potencialmente discriminatorios.
- Auditorías y requisitos de gobernanza continuos para asegurar el cumplimiento a lo largo del tiempo.
La orden ejecutiva de la Casa Blanca del 11 de diciembre de 2025, que pretende crear una política federal uniforme de IA y limitar la regulación estatal y local, podría eventualmente eliminar el mosaico de requisitos estatales y locales, pero aún no hay un cronograma para la eliminación de estos requisitos.
Legislación existente
Aun sin un régimen legal integral para la IA, las empresas de contratación no operan en un vacío legal. Las leyes de igualdad de oportunidades de empleo que han existido durante mucho tiempo ya regulan muchos de los riesgos que plantea la toma de decisiones impulsada por la IA. Los reguladores han sido explícitos en que estas leyes se aplican a los sistemas automatizados.
A nivel federal, el Título VII de la Ley de Derechos Civiles, la Ley de Estadounidenses con Discapacidades, la Ley de Discriminación por Edad en el Empleo y estatutos relacionados prohíben tanto la discriminación intencionada como las prácticas aparentemente neutrales que tienen un impacto desproporcionado en grupos protegidos. Estos principios son agnósticos a la tecnología. Si un algoritmo excluye a candidatos de manera que afecta desproporcionadamente a mujeres, trabajadores mayores, personas con discapacidades o minorías raciales, por ejemplo, y ese impacto no puede justificarse por necesidad comercial, el hecho de que una máquina haya tomado la decisión no aísla al empleador de la responsabilidad.
Las leyes estatales a menudo van más allá. La Ley de Empleo y Vivienda Justa de California, por ejemplo, proporciona protecciones más amplias que la ley federal, cubre características protegidas adicionales y impone obligaciones afirmativas a los empleadores para prevenir la discriminación y el acoso. Illinois, Nueva York, Nueva Jersey y otros estados mantienen regímenes robustos de igualdad de oportunidades. Para las empresas de contratación, esto significa que las herramientas de IA utilizadas en cualquier parte del ciclo de talento deben ser evaluadas a través de la misma lente de cumplimiento que históricamente se ha aplicado a los tomadores de decisiones humanos.
Ética
Por último, el uso de la IA en decisiones relacionadas con el empleo plantea riesgos más profundos que el cumplimiento normativo. Los principios humanos fundamentales siempre han impulsado la ley laboral. Nuestros marcos legales hacen espacio para el crecimiento, la explicación, la acomodación y la redención. Un candidato con un historial laboral no lineal, una terminación pasada o un trasfondo no convencional no debe ser excluido permanentemente de la oportunidad por una regla inflexible.
Sistemas de IA mal diseñados o mal gobernados amenazan con consolidar sesgos pasados, congelar a las personas en el tiempo o eliminar la discreción por completo. Cuando las decisiones se vuelven opacas, automatizadas y no revisables, el riesgo no es solo un impacto dispar, sino la pérdida del juicio humano donde más importa.
Para las empresas de contratación, la conclusión es clara: la IA debe aumentar, no reemplazar, la toma de decisiones legal, justa y humana. Una estrategia de riesgo de IA reflexiva reconoce que el cumplimiento no se trata solo de evitar acciones de ejecución, sino de preservar los valores que subyacen a la relación laboral misma.