Obligaciones de los Empleadores según la Nueva Ley de IA de la UE

EU: La Ley Integral de IA incluye obligaciones para los empleadores

La Ley de Inteligencia Artificial (IA) — una importante regulación europea que rige el uso de sistemas de IA — está en proceso de implementación por etapas hasta el 2 de agosto de 2026. Como regulación, se aplica a todos los estados miembros sin la necesidad de que se adopte legislación local correspondiente, aunque algunos estados pueden optar por hacerlo (por ejemplo, España aprobó legislación correspondiente en marzo de 2025).

Detalles Clave

La ley clasifica, define y regula la actividad de IA en función de cuatro niveles de riesgo (Inaceptable, Alto, Limitado y Mínimo):

  • Aplicaciones de IA que plantean un nivel de riesgo inaceptable están prohibidas. Esto incluye el uso de sistemas de IA para “evaluación social” (es decir, evaluar o categorizar a las personas en función de su comportamiento social o características de personalidad, resultando en ciertos tipos de tratamiento desfavorable) o para la categorización biométrica para inferir atributos personales “protegidos” como raza, afiliación sindical y orientación sexual. La prohibición de aplicaciones de IA prohibidas entró en vigor el 2 de febrero de 2025.
  • Sistemas de IA de alto riesgo estarán sujetos a una regulación sustancial, siendo la mayoría de las obligaciones aplicables a los desarrolladores del sistema. Los implementadores de sistemas de alto riesgo (por ejemplo, los empleadores) estarán sujetos a obligaciones menores, como asegurar la supervisión humana y el uso adecuado del sistema. Se publicarán pautas de implementación adicionales relacionadas con los sistemas de alto riesgo antes del 2 de febrero de 2026, y los requisitos de la ley relacionados con estos sistemas entrarán en vigor el 2 de agosto de 2026.
  • Para los sistemas de IA de alto riesgo utilizados en el lugar de trabajo, los empleadores deben informar a los representantes de los trabajadores y a los trabajadores afectados antes de poner el sistema en servicio. La ley define los sistemas de IA de alto riesgo relacionados con el empleo como aquellos utilizados para:
    • Reclutar o seleccionar individuos (en particular, colocando anuncios de trabajo dirigidos), analizar y filtrar solicitudes de empleo, y evaluar candidatos.
    • Tomar decisiones que afecten a los términos de las relaciones laborales, promocionar o terminar relaciones contractuales laborales, asignar tareas basadas en comportamientos individuales o rasgos personales, o monitorear y evaluar el rendimiento y comportamiento de personas en tales relaciones.
  • Los sistemas de IA de riesgo limitado están sujetos a obligaciones de transparencia más ligeras (por ejemplo, los desarrolladores y ejecutores deben asegurar que los usuarios finales sean conscientes de que están interactuando con IA); la actividad de IA de riesgo mínimo (la mayor parte de la IA actualmente en uso) queda en gran medida sin regular.

Implicaciones para los Empleadores

Los empleadores deben evaluar la clasificación de riesgo de los sistemas de IA desplegados en el lugar de trabajo o como parte del proceso de empleo y asegurar el cumplimiento con las disposiciones de la ley, incluyendo comunicaciones con los empleados y la asignación de supervisión humana según corresponda. Es importante señalar que gran parte de la controversia en torno a la ley es que busca regular capacidades potenciales (así como reales) de los sistemas de IA, lo que podría inhibir el desarrollo y la utilización de nuevos sistemas de IA.

La ley define un sistema de IA como “un sistema basado en máquinas diseñado para operar con diversos niveles de autonomía y que puede exhibir adaptabilidad después de su implementación, y que, con objetivos explícitos o implícitos, infiere, a partir de la información que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.”

Contacto para Consultas

Unidad de Investigación Global

Correo electrónico: global.research@willistowerswatson.com

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...