Obligaciones de los Empleadores según la Nueva Ley de IA de la UE

EU: La Ley Integral de IA incluye obligaciones para los empleadores

La Ley de Inteligencia Artificial (IA) — una importante regulación europea que rige el uso de sistemas de IA — está en proceso de implementación por etapas hasta el 2 de agosto de 2026. Como regulación, se aplica a todos los estados miembros sin la necesidad de que se adopte legislación local correspondiente, aunque algunos estados pueden optar por hacerlo (por ejemplo, España aprobó legislación correspondiente en marzo de 2025).

Detalles Clave

La ley clasifica, define y regula la actividad de IA en función de cuatro niveles de riesgo (Inaceptable, Alto, Limitado y Mínimo):

  • Aplicaciones de IA que plantean un nivel de riesgo inaceptable están prohibidas. Esto incluye el uso de sistemas de IA para “evaluación social” (es decir, evaluar o categorizar a las personas en función de su comportamiento social o características de personalidad, resultando en ciertos tipos de tratamiento desfavorable) o para la categorización biométrica para inferir atributos personales “protegidos” como raza, afiliación sindical y orientación sexual. La prohibición de aplicaciones de IA prohibidas entró en vigor el 2 de febrero de 2025.
  • Sistemas de IA de alto riesgo estarán sujetos a una regulación sustancial, siendo la mayoría de las obligaciones aplicables a los desarrolladores del sistema. Los implementadores de sistemas de alto riesgo (por ejemplo, los empleadores) estarán sujetos a obligaciones menores, como asegurar la supervisión humana y el uso adecuado del sistema. Se publicarán pautas de implementación adicionales relacionadas con los sistemas de alto riesgo antes del 2 de febrero de 2026, y los requisitos de la ley relacionados con estos sistemas entrarán en vigor el 2 de agosto de 2026.
  • Para los sistemas de IA de alto riesgo utilizados en el lugar de trabajo, los empleadores deben informar a los representantes de los trabajadores y a los trabajadores afectados antes de poner el sistema en servicio. La ley define los sistemas de IA de alto riesgo relacionados con el empleo como aquellos utilizados para:
    • Reclutar o seleccionar individuos (en particular, colocando anuncios de trabajo dirigidos), analizar y filtrar solicitudes de empleo, y evaluar candidatos.
    • Tomar decisiones que afecten a los términos de las relaciones laborales, promocionar o terminar relaciones contractuales laborales, asignar tareas basadas en comportamientos individuales o rasgos personales, o monitorear y evaluar el rendimiento y comportamiento de personas en tales relaciones.
  • Los sistemas de IA de riesgo limitado están sujetos a obligaciones de transparencia más ligeras (por ejemplo, los desarrolladores y ejecutores deben asegurar que los usuarios finales sean conscientes de que están interactuando con IA); la actividad de IA de riesgo mínimo (la mayor parte de la IA actualmente en uso) queda en gran medida sin regular.

Implicaciones para los Empleadores

Los empleadores deben evaluar la clasificación de riesgo de los sistemas de IA desplegados en el lugar de trabajo o como parte del proceso de empleo y asegurar el cumplimiento con las disposiciones de la ley, incluyendo comunicaciones con los empleados y la asignación de supervisión humana según corresponda. Es importante señalar que gran parte de la controversia en torno a la ley es que busca regular capacidades potenciales (así como reales) de los sistemas de IA, lo que podría inhibir el desarrollo y la utilización de nuevos sistemas de IA.

La ley define un sistema de IA como “un sistema basado en máquinas diseñado para operar con diversos niveles de autonomía y que puede exhibir adaptabilidad después de su implementación, y que, con objetivos explícitos o implícitos, infiere, a partir de la información que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.”

Contacto para Consultas

Unidad de Investigación Global

Correo electrónico: global.research@willistowerswatson.com

More Insights

La falta de transparencia en la regulación de IA perjudica a Europa

La UE está en riesgo de comprometer principios fundamentales al intentar simplificar las regulaciones para las empresas tecnológicas, confundiendo la transparencia con un obstáculo para la innovación...

El Congreso y los tribunales enfrentan los desafíos legales de la IA

La inteligencia artificial se está convirtiendo rápidamente en una parte integral de la vida cotidiana, lo que intensifica el debate sobre cómo utilizarla de manera adecuada y ética. El Congreso y los...

El Acta de IA de la UE: Desafíos y Oportunidades

La Ley de IA de la UE se convertirá en la primera regulación importante centrada en la inteligencia artificial, con el objetivo de garantizar que los sistemas de IA en Europa sean seguros y justos...

El Acta de IA de la UE: Desafíos y Oportunidades

La Ley de IA de la UE se convertirá en la primera regulación importante centrada en la inteligencia artificial, con el objetivo de garantizar que los sistemas de IA en Europa sean seguros y justos...

Impacto del modelo DeepSeek en la regulación de la IA en la UE

La aparición del modelo de IA chino DeepSeek está llevando a los responsables políticos de la UE a considerar cambios en la Ley de IA de la UE. Se prevé que una actualización de una medida de umbral...

Enfoques para Mitigar los Riesgos de la IA: ¿Suave, Duro o un Punto Intermedio?

El desarrollo de la inteligencia artificial presenta riesgos debido a que las herramientas modernas están desafiando los límites éticos bajo marcos legales existentes. Las diferencias regulatorias...

De Obstáculo a Potenciador: El Papel del Ingeniero de Datos en la IA Responsable

El artículo presenta un nuevo modelo de colaboración donde los equipos de ingeniería de datos pasan de ser constructores únicos a arquitectos de habilitación, empoderando a las unidades de negocio...

Riesgos y responsabilidades en la era de la IA

La inteligencia artificial (IA) está cada vez más presente en los negocios y en la vida social, pero su uso creciente también conlleva riesgos significativos, como sesgos algorítmicos y preocupaciones...