Acciones necesarias ante el uso de IA en recursos humanos

Necesidad de acción al utilizar sistemas de IA en Recursos Humanos

El uso de sistemas de inteligencia artificial (IA) en el ámbito laboral ha cobrado una relevancia significativa, especialmente con la entrada en vigor de la Ley de Inteligencia Artificial (AI Act) en la Unión Europea. Esta normativa, que comenzó su implementación en febrero de 2025, impone obligaciones a los empleadores respecto al uso de sistemas de IA en Recursos Humanos.

Regulaciones sobre prácticas de IA prohibidas

El Artículo 5 de la AI Act se centra en aquellas prácticas de IA que presentan un riesgo inaceptable para la seguridad, derechos o vidas de las personas. Estas prácticas están prohibidas en el mercado de la UE y se clasifican en ocho categorías básicas:

  1. Uso de técnicas subliminales, manipulativas o engañosas que puedan distorsionar el comportamiento de una persona;
  2. Explotación perjudicial de vulnerabilidades;
  3. Evaluación social: evaluación basada en el comportamiento social o características de personalidad;
  4. Predicción de delitos: evaluación de riesgo individual y predicción de delitos;
  5. Creación de bases de datos de reconocimiento facial a través de evaluaciones no dirigidas;
  6. Reconocimiento de emociones;
  7. Categorización biométrica;
  8. Identificación biométrica remota en tiempo real.

Desde el 2 de febrero de 2025, el uso de sistemas de IA en procesos de aplicación que utilicen cámaras o análisis de voz para capturar señales fisiológicas y emociones está estrictamente prohibido. Esto incluye, por ejemplo, sistemas que evalúan niveles de estrés o satisfacción de los empleados.

La falta de cumplimiento puede resultar en multas administrativas de hasta 35 millones de euros o, si el infractor es una empresa, hasta el 7% de su facturación anual total del ejercicio anterior, lo que sea más alto.

Regulaciones sobre alfabetización en IA

El Artículo 4 de la AI Act establece que los proveedores y desplegadores de sistemas de IA deben garantizar, en la medida de lo posible, un nivel adecuado de alfabetización en IA entre su personal. Esto es crucial para que los empleados manejen los sistemas de IA de manera informada y consciente de las oportunidades y riesgos que conllevan.

Los requisitos de formación dependen del conocimiento técnico, experiencia y contexto en el que se utilicen los sistemas de IA. Cuanto mayor sea la clasificación de riesgo del sistema, más extensa debe ser la capacitación en competencias de IA.

Definición abstracta-técnica como dificultad práctica

La implementación de los requisitos legales de la AI Act enfrenta dificultades debido a la definición poco clara de los sistemas de IA. Según el Artículo 3, un sistema de IA es “un sistema basado en máquinas diseñado para operar con diferentes niveles de autonomía, que puede exhibir adaptabilidad tras su implementación y que, con objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales”.

Para facilitar la aplicación de estas normas, la UE ha publicado Directrices sobre la definición de un sistema de inteligencia artificial, que buscan aclarar los elementos clave de los sistemas de IA y excluir sistemas basados exclusivamente en reglas funcionales definidas por personas naturales.

Perspectivas futuras

Si bien la clasificación de un sistema de IA como de alto riesgo bajo las condiciones del Artículo 6 no se aplicará hasta el 2 de agosto de 2027, las demás disposiciones de la ley entrarán en vigor el 2 de agosto de 2026. Esto incluye regulaciones sobre IA de alto riesgo en el empleo y la gestión de empleados.

Los empleadores deberán asegurarse de que los sistemas de IA se utilicen de acuerdo con las instrucciones del proveedor, que estén supervisados por personas competentes y capacitadas, y que los datos de entrada sean relevantes y representativos. Además, cualquier sistema de IA que cause daños significativos en caso de error o mal uso estará sujeto a obligaciones específicas.

Resumen

La AI Act convierte a los empleadores en responsables del uso de sistemas de IA en el lugar de trabajo. Por lo tanto, la gestión y el personal de Recursos Humanos deben tomar medidas inmediatas para garantizar que los empleados involucrados en el uso de estos sistemas tengan el nivel de conocimiento adecuado. En el futuro, los sistemas de IA utilizados en los procesos de aplicación o en la relación laboral deberán operar en conformidad con las obligaciones para sistemas de alto riesgo.

More Insights

Gobernanza de IA en Salud: Desafíos y Oportunidades

El paisaje regulatorio de la IA ha experimentado cambios monumentales en los últimos seis meses, con un enfoque creciente en la innovación en lugar de la regulación. Sin embargo, es crucial mantener...

La industria de IA exige un retraso en la ley básica ante regulaciones vagas

Se han planteado preocupaciones en la industria de que los estándares regulatorios ambiguos dentro de la ley básica de IA podrían obstaculizar el crecimiento del sector. Recientemente, Huang Jeong-a...

Cumpliendo con el GDPR y la Ley de IA de la UE en Marketing

Como comercializadores o dueños de negocios, sabemos lo desafiante que puede ser llegar a la audiencia adecuada en el momento oportuno. La conformidad con el GDPR es crucial para garantizar la...

La pirámide de riesgos de la Ley de IA de la UE

Una de las características definitorias de la Ley de IA de la UE es su enfoque basado en el riesgo, donde los sistemas de IA no se tratan por igual. La ley clasifica los sistemas de IA en cuatro...

Empresas de IA afirman que las regulaciones existentes pueden gobernar la IA agentiva

Las empresas de inteligencia artificial están adoptando la IA agentiva, que se considera la próxima evolución de la IA generativa. A medida que la innovación avanza, los desarrolladores de IA...

La UE prohíbe el uso de software de IA en reuniones en línea

La Comisión Europea ha prohibido inesperadamente el uso de asistentes virtuales impulsados por IA durante las reuniones en línea, a pesar de su creciente popularidad. Este movimiento ha suscitado...

Diseñando Confianza en la IA Responsable

El rápido avance de la inteligencia artificial (IA) en la tecnología cotidiana presenta grandes oportunidades, así como desafíos éticos significativos. Los diseñadores de productos están en la...

Interoperabilidad en la Regulación de la IA: Caminos hacia un Futuro Sostenible

A medida que nos encontramos en una encrucijada crítica en el desarrollo de la IA, surge un desafío de gobernanza que podría sofocar la innovación y crear divisiones digitales globales. La actual...