Obligaciones de los Empleadores según la Nueva Ley de IA de la UE

EU: La Ley Integral de IA incluye obligaciones para los empleadores

La Ley de Inteligencia Artificial (IA) — una importante regulación europea que rige el uso de sistemas de IA — está en proceso de implementación por etapas hasta el 2 de agosto de 2026. Como regulación, se aplica a todos los estados miembros sin la necesidad de que se adopte legislación local correspondiente, aunque algunos estados pueden optar por hacerlo (por ejemplo, España aprobó legislación correspondiente en marzo de 2025).

Detalles Clave

La ley clasifica, define y regula la actividad de IA en función de cuatro niveles de riesgo (Inaceptable, Alto, Limitado y Mínimo):

  • Aplicaciones de IA que plantean un nivel de riesgo inaceptable están prohibidas. Esto incluye el uso de sistemas de IA para “evaluación social” (es decir, evaluar o categorizar a las personas en función de su comportamiento social o características de personalidad, resultando en ciertos tipos de tratamiento desfavorable) o para la categorización biométrica para inferir atributos personales “protegidos” como raza, afiliación sindical y orientación sexual. La prohibición de aplicaciones de IA prohibidas entró en vigor el 2 de febrero de 2025.
  • Sistemas de IA de alto riesgo estarán sujetos a una regulación sustancial, siendo la mayoría de las obligaciones aplicables a los desarrolladores del sistema. Los implementadores de sistemas de alto riesgo (por ejemplo, los empleadores) estarán sujetos a obligaciones menores, como asegurar la supervisión humana y el uso adecuado del sistema. Se publicarán pautas de implementación adicionales relacionadas con los sistemas de alto riesgo antes del 2 de febrero de 2026, y los requisitos de la ley relacionados con estos sistemas entrarán en vigor el 2 de agosto de 2026.
  • Para los sistemas de IA de alto riesgo utilizados en el lugar de trabajo, los empleadores deben informar a los representantes de los trabajadores y a los trabajadores afectados antes de poner el sistema en servicio. La ley define los sistemas de IA de alto riesgo relacionados con el empleo como aquellos utilizados para:
    • Reclutar o seleccionar individuos (en particular, colocando anuncios de trabajo dirigidos), analizar y filtrar solicitudes de empleo, y evaluar candidatos.
    • Tomar decisiones que afecten a los términos de las relaciones laborales, promocionar o terminar relaciones contractuales laborales, asignar tareas basadas en comportamientos individuales o rasgos personales, o monitorear y evaluar el rendimiento y comportamiento de personas en tales relaciones.
  • Los sistemas de IA de riesgo limitado están sujetos a obligaciones de transparencia más ligeras (por ejemplo, los desarrolladores y ejecutores deben asegurar que los usuarios finales sean conscientes de que están interactuando con IA); la actividad de IA de riesgo mínimo (la mayor parte de la IA actualmente en uso) queda en gran medida sin regular.

Implicaciones para los Empleadores

Los empleadores deben evaluar la clasificación de riesgo de los sistemas de IA desplegados en el lugar de trabajo o como parte del proceso de empleo y asegurar el cumplimiento con las disposiciones de la ley, incluyendo comunicaciones con los empleados y la asignación de supervisión humana según corresponda. Es importante señalar que gran parte de la controversia en torno a la ley es que busca regular capacidades potenciales (así como reales) de los sistemas de IA, lo que podría inhibir el desarrollo y la utilización de nuevos sistemas de IA.

La ley define un sistema de IA como “un sistema basado en máquinas diseñado para operar con diversos niveles de autonomía y que puede exhibir adaptabilidad después de su implementación, y que, con objetivos explícitos o implícitos, infiere, a partir de la información que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.”

Contacto para Consultas

Unidad de Investigación Global

Correo electrónico: global.research@willistowerswatson.com

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...