EU: La Ley Integral de IA incluye obligaciones para los empleadores
La Ley de Inteligencia Artificial (IA) — una importante regulación europea que rige el uso de sistemas de IA — está en proceso de implementación por etapas hasta el 2 de agosto de 2026. Como regulación, se aplica a todos los estados miembros sin la necesidad de que se adopte legislación local correspondiente, aunque algunos estados pueden optar por hacerlo (por ejemplo, España aprobó legislación correspondiente en marzo de 2025).
Detalles Clave
La ley clasifica, define y regula la actividad de IA en función de cuatro niveles de riesgo (Inaceptable, Alto, Limitado y Mínimo):
- Aplicaciones de IA que plantean un nivel de riesgo inaceptable están prohibidas. Esto incluye el uso de sistemas de IA para “evaluación social” (es decir, evaluar o categorizar a las personas en función de su comportamiento social o características de personalidad, resultando en ciertos tipos de tratamiento desfavorable) o para la categorización biométrica para inferir atributos personales “protegidos” como raza, afiliación sindical y orientación sexual. La prohibición de aplicaciones de IA prohibidas entró en vigor el 2 de febrero de 2025.
- Sistemas de IA de alto riesgo estarán sujetos a una regulación sustancial, siendo la mayoría de las obligaciones aplicables a los desarrolladores del sistema. Los implementadores de sistemas de alto riesgo (por ejemplo, los empleadores) estarán sujetos a obligaciones menores, como asegurar la supervisión humana y el uso adecuado del sistema. Se publicarán pautas de implementación adicionales relacionadas con los sistemas de alto riesgo antes del 2 de febrero de 2026, y los requisitos de la ley relacionados con estos sistemas entrarán en vigor el 2 de agosto de 2026.
- Para los sistemas de IA de alto riesgo utilizados en el lugar de trabajo, los empleadores deben informar a los representantes de los trabajadores y a los trabajadores afectados antes de poner el sistema en servicio. La ley define los sistemas de IA de alto riesgo relacionados con el empleo como aquellos utilizados para:
- Reclutar o seleccionar individuos (en particular, colocando anuncios de trabajo dirigidos), analizar y filtrar solicitudes de empleo, y evaluar candidatos.
- Tomar decisiones que afecten a los términos de las relaciones laborales, promocionar o terminar relaciones contractuales laborales, asignar tareas basadas en comportamientos individuales o rasgos personales, o monitorear y evaluar el rendimiento y comportamiento de personas en tales relaciones.
- Los sistemas de IA de riesgo limitado están sujetos a obligaciones de transparencia más ligeras (por ejemplo, los desarrolladores y ejecutores deben asegurar que los usuarios finales sean conscientes de que están interactuando con IA); la actividad de IA de riesgo mínimo (la mayor parte de la IA actualmente en uso) queda en gran medida sin regular.
Implicaciones para los Empleadores
Los empleadores deben evaluar la clasificación de riesgo de los sistemas de IA desplegados en el lugar de trabajo o como parte del proceso de empleo y asegurar el cumplimiento con las disposiciones de la ley, incluyendo comunicaciones con los empleados y la asignación de supervisión humana según corresponda. Es importante señalar que gran parte de la controversia en torno a la ley es que busca regular capacidades potenciales (así como reales) de los sistemas de IA, lo que podría inhibir el desarrollo y la utilización de nuevos sistemas de IA.
La ley define un sistema de IA como “un sistema basado en máquinas diseñado para operar con diversos niveles de autonomía y que puede exhibir adaptabilidad después de su implementación, y que, con objetivos explícitos o implícitos, infiere, a partir de la información que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.”
Contacto para Consultas
Unidad de Investigación Global
Correo electrónico: global.research@willistowerswatson.com