Acciones necesarias ante el uso de IA en recursos humanos

Necesidad de acción al utilizar sistemas de IA en Recursos Humanos

El uso de sistemas de inteligencia artificial (IA) en el ámbito laboral ha cobrado una relevancia significativa, especialmente con la entrada en vigor de la Ley de Inteligencia Artificial (AI Act) en la Unión Europea. Esta normativa, que comenzó su implementación en febrero de 2025, impone obligaciones a los empleadores respecto al uso de sistemas de IA en Recursos Humanos.

Regulaciones sobre prácticas de IA prohibidas

El Artículo 5 de la AI Act se centra en aquellas prácticas de IA que presentan un riesgo inaceptable para la seguridad, derechos o vidas de las personas. Estas prácticas están prohibidas en el mercado de la UE y se clasifican en ocho categorías básicas:

  1. Uso de técnicas subliminales, manipulativas o engañosas que puedan distorsionar el comportamiento de una persona;
  2. Explotación perjudicial de vulnerabilidades;
  3. Evaluación social: evaluación basada en el comportamiento social o características de personalidad;
  4. Predicción de delitos: evaluación de riesgo individual y predicción de delitos;
  5. Creación de bases de datos de reconocimiento facial a través de evaluaciones no dirigidas;
  6. Reconocimiento de emociones;
  7. Categorización biométrica;
  8. Identificación biométrica remota en tiempo real.

Desde el 2 de febrero de 2025, el uso de sistemas de IA en procesos de aplicación que utilicen cámaras o análisis de voz para capturar señales fisiológicas y emociones está estrictamente prohibido. Esto incluye, por ejemplo, sistemas que evalúan niveles de estrés o satisfacción de los empleados.

La falta de cumplimiento puede resultar en multas administrativas de hasta 35 millones de euros o, si el infractor es una empresa, hasta el 7% de su facturación anual total del ejercicio anterior, lo que sea más alto.

Regulaciones sobre alfabetización en IA

El Artículo 4 de la AI Act establece que los proveedores y desplegadores de sistemas de IA deben garantizar, en la medida de lo posible, un nivel adecuado de alfabetización en IA entre su personal. Esto es crucial para que los empleados manejen los sistemas de IA de manera informada y consciente de las oportunidades y riesgos que conllevan.

Los requisitos de formación dependen del conocimiento técnico, experiencia y contexto en el que se utilicen los sistemas de IA. Cuanto mayor sea la clasificación de riesgo del sistema, más extensa debe ser la capacitación en competencias de IA.

Definición abstracta-técnica como dificultad práctica

La implementación de los requisitos legales de la AI Act enfrenta dificultades debido a la definición poco clara de los sistemas de IA. Según el Artículo 3, un sistema de IA es “un sistema basado en máquinas diseñado para operar con diferentes niveles de autonomía, que puede exhibir adaptabilidad tras su implementación y que, con objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales”.

Para facilitar la aplicación de estas normas, la UE ha publicado Directrices sobre la definición de un sistema de inteligencia artificial, que buscan aclarar los elementos clave de los sistemas de IA y excluir sistemas basados exclusivamente en reglas funcionales definidas por personas naturales.

Perspectivas futuras

Si bien la clasificación de un sistema de IA como de alto riesgo bajo las condiciones del Artículo 6 no se aplicará hasta el 2 de agosto de 2027, las demás disposiciones de la ley entrarán en vigor el 2 de agosto de 2026. Esto incluye regulaciones sobre IA de alto riesgo en el empleo y la gestión de empleados.

Los empleadores deberán asegurarse de que los sistemas de IA se utilicen de acuerdo con las instrucciones del proveedor, que estén supervisados por personas competentes y capacitadas, y que los datos de entrada sean relevantes y representativos. Además, cualquier sistema de IA que cause daños significativos en caso de error o mal uso estará sujeto a obligaciones específicas.

Resumen

La AI Act convierte a los empleadores en responsables del uso de sistemas de IA en el lugar de trabajo. Por lo tanto, la gestión y el personal de Recursos Humanos deben tomar medidas inmediatas para garantizar que los empleados involucrados en el uso de estos sistemas tengan el nivel de conocimiento adecuado. En el futuro, los sistemas de IA utilizados en los procesos de aplicación o en la relación laboral deberán operar en conformidad con las obligaciones para sistemas de alto riesgo.

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...