Uso de IA en Reclutamiento: Implicaciones para Empresas en la UE y EE. UU.

Uso de la IA en el Reclutamiento y Contratación – Consideraciones para Empresas de la UE y EE.UU.

1. Uso de la IA en el Reclutamiento y Contratación

La IA está transformando el panorama del reclutamiento a nivel mundial, haciendo que procesos como la selección de currículos y la interacción con candidatos sean más eficientes mediante:

– El uso de búsquedas de palabras clave para clasificar y eliminar automáticamente candidatos de un grupo de solicitantes con mínima supervisión humana;
– La realización de tareas de reclutamiento a través de chatbots que interactúan con los candidatos;
– La formulación de pruebas de habilidades y aptitudes;
– El análisis de entrevistas en video para evaluar la idoneidad de un candidato para un puesto específico.

Además de maximizar la eficiencia, la IA también puede ser utilizada para tomar decisiones automáticas y sustantivas relacionadas con el reclutamiento, la contratación y el desempeño mediante el uso de análisis predictivos que pronostican el éxito de un candidato en un rol específico.

2. Regulación del Uso de la IA en la Unión Europea y Estados Unidos

La Unión Europea ha adoptado un enfoque unificado hacia la regulación de la IA, y todos los estados miembros de la UE están actualmente gobernados por el Reglamento de la UE sobre IA, que entró en vigor el 1 de agosto de 2024. El alcance del Reglamento de la UE sobre IA se aplica a todos los proveedores y desplegadores con sede en la UE, así como a aquellos que introducen un sistema de IA en el mercado de la UE o utilizan los resultados de un sistema de IA en la UE. Las partes ubicadas fuera de la UE deben, por lo tanto, estar conscientes de que el Reglamento de la UE sobre IA puede aplicarse a ellas también.

El Reglamento de la UE sobre IA categoriza los sistemas de IA en diferentes categorías de riesgo, con las reglas aplicables volviéndose más estrictas a medida que aumenta el riesgo para la salud, la seguridad y los derechos fundamentales (por ejemplo, «mínima» regulación para filtros de spam; «limitada» regulación para chatbots; «alta» regulación para uso en reclutamiento; y «inaceptable» uso de IA para puntuación social y reconocimiento facial). Las herramientas de recursos humanos se consideran sistemas de IA de alto riesgo si (1) se utilizan para reclutar o seleccionar candidatos; y/o (2) proporcionan la base para decisiones laborales relacionadas con los recursos humanos, como promover o terminar un empleo o monitorear y evaluar el desempeño y comportamiento.

A partir del 2 de febrero de 2025, el Reglamento de la UE sobre IA exige a las empresas eliminar los sistemas de IA considerados «inaceptables» (según lo definido por la ley) y capacitar exhaustivamente a todos los empleados que utilizan sistemas de IA con respecto al uso de IA conforme al reglamento.

En contraste con la UE, Estados Unidos no tiene actualmente regulaciones de IA uniformes a nivel federal. Aunque la administración de Biden había encargado a agencias gubernamentales como el Departamento de Trabajo y la Comisión de Igualdad de Oportunidades en el Empleo monitorear el uso de herramientas de IA y emitir orientaciones para mejorar el cumplimiento de las leyes de anti-discriminación y privacidad, en enero de 2025, el presidente Trump expresó su apoyo a la deregulación, emitiendo una orden ejecutiva titulada «Eliminación de Barreras para el Liderazgo Americano en Cuestiones de Inteligencia Artificial». Desde entonces, las agencias federales han eliminado toda la orientación previamente emitida sobre el uso de IA.

En respuesta a la orden ejecutiva que aboga por la deregulación de la IA, se han introducido y aprobado regulaciones sobre el uso de la IA a nivel estatal. Sin embargo, la legislación aprobada no siempre se convierte en vinculante legalmente. Por ejemplo, en febrero de 2025, la legislatura de Virginia aprobó la Ley de Desarrolladores y Desplegadores de IA de Alto Riesgo, que habría requerido a las empresas que crean o utilizan sistemas de IA «de alto riesgo» en el empleo, así como en otras áreas, implementar salvaguardias contra la discriminación algorítmica para tales sistemas. Sin embargo, el gobernador vetó la Ley el 24 de marzo de 2025, por lo que la Ley no se aplica actualmente.

3. Uso de la IA Puede Provocar Otras Violaciones Legales

Además de cumplir con leyes como el Reglamento de la UE sobre IA, que regula específicamente el uso de la IA, las empresas que utilizan IA en sus procesos de reclutamiento y contratación deben tener cuidado de que su uso no desencadene una violación de otras leyes. Por ejemplo:

– Sesgo y Discriminación: Los algoritmos utilizados por la IA en el reclutamiento y la contratación pueden perpetuar inadvertidamente sesgos, lo que lleva a la discriminación de candidatos en función de su raza, género, edad u otras características protegidas. La discriminación está prohibida en la UE bajo la Directiva del Consejo 2000/78/CE, que prohíbe la discriminación en el empleo, la educación y la seguridad pública, así como en los Estados Unidos a través de más de un centenar de leyes federales, estatales y locales de anti-discriminación.

– Seguridad de Datos y Propiedad: Las empresas que ingresan datos personales de posibles candidatos en un sistema de IA tienen ciertas obligaciones legales con respecto al mantenimiento de la seguridad de dichos datos, así como consideraciones respecto a la propiedad de dichos datos. Tales obligaciones están gobernadas por el Reglamento General de Protección de Datos de la UE (GDPR), que entró en vigor el 25 de mayo de 2018. En Estados Unidos, más de 20 jurisdicciones han aprobado leyes que imponen obligaciones a los empleadores que utilizan IA para recopilar y procesar datos de candidatos y empleados.

– Invasión de la Privacidad: Los empleadores que recopilan datos de candidatos y/o empleados a través de herramientas de IA pueden estar invadiendo inadvertidamente la privacidad de dichos candidatos y empleados, y deben tener cuidado con las leyes de privacidad aplicables, que pueden requerir que la empresa obtenga el consentimiento del candidato o empleado antes de realizar ciertas búsquedas.

4. Sanciones por No Cumplimiento

Un empleador de la UE que viole las leyes de discriminación, seguridad de datos y privacidad mencionadas anteriormente arriesga indemnizaciones significativas (aunque inferiores a las de EE.UU.), así como altas multas administrativas de agencias como la Oficina Europea de IA y las autoridades nacionales de protección de datos.

Las reclamaciones por daños por incumplimiento pueden variar significativamente entre jurisdicciones, y los estados miembros de la UE mantienen la autonomía nacional para determinar las sumas de indemnización. Sin embargo, los fallos históricos del Tribunal de Justicia de la UE (TJUE) enfatizan la importancia de emitir indemnizaciones que correspondan a la naturaleza y extensión de los derechos protegidos por la UE violados.

Ciertos países europeos, como Estonia, Hungría, Irlanda, Suecia, Austria y Finlandia, han establecido límites estatutos o costumbres en las indemnizaciones a empleados en caso de que una empresa no cumpla con las regulaciones de anti-discriminación aplicables, con tales indemnizaciones que varían desde el pago de EUR 500 hasta 104 semanas de salario. En contraste, en Polonia, Alemania y los Países Bajos, las indemnizaciones no están formalmente limitadas, aunque en la práctica las indemnizaciones son relativamente bajas en comparación con las de Estados Unidos. Las leyes nacionales de algunos países europeos, como el Reino Unido, prevén indemnizaciones punitivas, lo que incrementaría aún más la suma de indemnizaciones otorgadas.

Además de lo anterior, las multas administrativas por violaciones de las leyes de seguridad de datos y privacidad bajo el GDPR pueden alcanzar hasta el mayor de EUR 20,000,000, o el 4% de la facturación anual mundial de una empresa correspondiente al año financiero anterior.

Bajo el Reglamento de la UE sobre IA, tanto un empleador de la UE como un empleador no perteneciente a la UE que utilice los resultados de un sistema de IA en la UE pueden ser multados hasta el mayor de EUR 35,000,000 o el 7% de la facturación anual mundial de la empresa correspondiente al año financiero anterior. En Estados Unidos, las sanciones varían según la jurisdicción. En la ciudad de Nueva York, por ejemplo, un empleador puede incurrir en una multa de hasta $500 por una primera violación, y entre $500 y $1,500 por cada violación subsiguiente o continua.

5. Consideraciones para los Empleadores

Para minimizar la exposición, los empleadores deben considerar tomar los siguientes pasos:

– Para la UE (incluidas las empresas no pertenecientes a la UE sujetas a las leyes de la UE como se proporciona arriba):

– Eliminar el uso de IA considerado «inaceptable» bajo el Reglamento de la UE sobre IA.
– Capacitar a los empleados para utilizar IA de acuerdo con el Reglamento de la UE sobre IA, las leyes de seguridad de datos y privacidad aplicables, y las políticas de la empresa.
– Prepararse para nuevos requisitos adicionales programados para entrar en vigor en agosto de 2026.

– Para Estados Unidos:

– Informar a los candidatos cuando se utilice IA en el reclutamiento y la contratación y obtener el consentimiento informado por escrito de un candidato antes de utilizar IA para el procesamiento de datos sensibles.
– Proporcionar un método alternativo de selección si el candidato se niega al uso de IA.
– Utilizar sistemas de IA (incluidos los procedimientos de prueba) que proporcionen parámetros claros que puedan verificarse posteriormente.
– Realizar pruebas independientes periódicas de sesgo de los sistemas de IA y herramientas de reclutamiento.
– Incluir supervisión humana en el proceso de toma de decisiones.

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...