Acciones necesarias ante el uso de IA en recursos humanos

Necesidad de acción al utilizar sistemas de IA en Recursos Humanos

El uso de sistemas de inteligencia artificial (IA) en el ámbito laboral ha cobrado una relevancia significativa, especialmente con la entrada en vigor de la Ley de Inteligencia Artificial (AI Act) en la Unión Europea. Esta normativa, que comenzó su implementación en febrero de 2025, impone obligaciones a los empleadores respecto al uso de sistemas de IA en Recursos Humanos.

Regulaciones sobre prácticas de IA prohibidas

El Artículo 5 de la AI Act se centra en aquellas prácticas de IA que presentan un riesgo inaceptable para la seguridad, derechos o vidas de las personas. Estas prácticas están prohibidas en el mercado de la UE y se clasifican en ocho categorías básicas:

  1. Uso de técnicas subliminales, manipulativas o engañosas que puedan distorsionar el comportamiento de una persona;
  2. Explotación perjudicial de vulnerabilidades;
  3. Evaluación social: evaluación basada en el comportamiento social o características de personalidad;
  4. Predicción de delitos: evaluación de riesgo individual y predicción de delitos;
  5. Creación de bases de datos de reconocimiento facial a través de evaluaciones no dirigidas;
  6. Reconocimiento de emociones;
  7. Categorización biométrica;
  8. Identificación biométrica remota en tiempo real.

Desde el 2 de febrero de 2025, el uso de sistemas de IA en procesos de aplicación que utilicen cámaras o análisis de voz para capturar señales fisiológicas y emociones está estrictamente prohibido. Esto incluye, por ejemplo, sistemas que evalúan niveles de estrés o satisfacción de los empleados.

La falta de cumplimiento puede resultar en multas administrativas de hasta 35 millones de euros o, si el infractor es una empresa, hasta el 7% de su facturación anual total del ejercicio anterior, lo que sea más alto.

Regulaciones sobre alfabetización en IA

El Artículo 4 de la AI Act establece que los proveedores y desplegadores de sistemas de IA deben garantizar, en la medida de lo posible, un nivel adecuado de alfabetización en IA entre su personal. Esto es crucial para que los empleados manejen los sistemas de IA de manera informada y consciente de las oportunidades y riesgos que conllevan.

Los requisitos de formación dependen del conocimiento técnico, experiencia y contexto en el que se utilicen los sistemas de IA. Cuanto mayor sea la clasificación de riesgo del sistema, más extensa debe ser la capacitación en competencias de IA.

Definición abstracta-técnica como dificultad práctica

La implementación de los requisitos legales de la AI Act enfrenta dificultades debido a la definición poco clara de los sistemas de IA. Según el Artículo 3, un sistema de IA es “un sistema basado en máquinas diseñado para operar con diferentes niveles de autonomía, que puede exhibir adaptabilidad tras su implementación y que, con objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales”.

Para facilitar la aplicación de estas normas, la UE ha publicado Directrices sobre la definición de un sistema de inteligencia artificial, que buscan aclarar los elementos clave de los sistemas de IA y excluir sistemas basados exclusivamente en reglas funcionales definidas por personas naturales.

Perspectivas futuras

Si bien la clasificación de un sistema de IA como de alto riesgo bajo las condiciones del Artículo 6 no se aplicará hasta el 2 de agosto de 2027, las demás disposiciones de la ley entrarán en vigor el 2 de agosto de 2026. Esto incluye regulaciones sobre IA de alto riesgo en el empleo y la gestión de empleados.

Los empleadores deberán asegurarse de que los sistemas de IA se utilicen de acuerdo con las instrucciones del proveedor, que estén supervisados por personas competentes y capacitadas, y que los datos de entrada sean relevantes y representativos. Además, cualquier sistema de IA que cause daños significativos en caso de error o mal uso estará sujeto a obligaciones específicas.

Resumen

La AI Act convierte a los empleadores en responsables del uso de sistemas de IA en el lugar de trabajo. Por lo tanto, la gestión y el personal de Recursos Humanos deben tomar medidas inmediatas para garantizar que los empleados involucrados en el uso de estos sistemas tengan el nivel de conocimiento adecuado. En el futuro, los sistemas de IA utilizados en los procesos de aplicación o en la relación laboral deberán operar en conformidad con las obligaciones para sistemas de alto riesgo.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...