Obligaciones de los Empleadores según la Nueva Ley de IA de la UE

EU: La Ley Integral de IA incluye obligaciones para los empleadores

La Ley de Inteligencia Artificial (IA) — una importante regulación europea que rige el uso de sistemas de IA — está en proceso de implementación por etapas hasta el 2 de agosto de 2026. Como regulación, se aplica a todos los estados miembros sin la necesidad de que se adopte legislación local correspondiente, aunque algunos estados pueden optar por hacerlo (por ejemplo, España aprobó legislación correspondiente en marzo de 2025).

Detalles Clave

La ley clasifica, define y regula la actividad de IA en función de cuatro niveles de riesgo (Inaceptable, Alto, Limitado y Mínimo):

  • Aplicaciones de IA que plantean un nivel de riesgo inaceptable están prohibidas. Esto incluye el uso de sistemas de IA para “evaluación social” (es decir, evaluar o categorizar a las personas en función de su comportamiento social o características de personalidad, resultando en ciertos tipos de tratamiento desfavorable) o para la categorización biométrica para inferir atributos personales “protegidos” como raza, afiliación sindical y orientación sexual. La prohibición de aplicaciones de IA prohibidas entró en vigor el 2 de febrero de 2025.
  • Sistemas de IA de alto riesgo estarán sujetos a una regulación sustancial, siendo la mayoría de las obligaciones aplicables a los desarrolladores del sistema. Los implementadores de sistemas de alto riesgo (por ejemplo, los empleadores) estarán sujetos a obligaciones menores, como asegurar la supervisión humana y el uso adecuado del sistema. Se publicarán pautas de implementación adicionales relacionadas con los sistemas de alto riesgo antes del 2 de febrero de 2026, y los requisitos de la ley relacionados con estos sistemas entrarán en vigor el 2 de agosto de 2026.
  • Para los sistemas de IA de alto riesgo utilizados en el lugar de trabajo, los empleadores deben informar a los representantes de los trabajadores y a los trabajadores afectados antes de poner el sistema en servicio. La ley define los sistemas de IA de alto riesgo relacionados con el empleo como aquellos utilizados para:
    • Reclutar o seleccionar individuos (en particular, colocando anuncios de trabajo dirigidos), analizar y filtrar solicitudes de empleo, y evaluar candidatos.
    • Tomar decisiones que afecten a los términos de las relaciones laborales, promocionar o terminar relaciones contractuales laborales, asignar tareas basadas en comportamientos individuales o rasgos personales, o monitorear y evaluar el rendimiento y comportamiento de personas en tales relaciones.
  • Los sistemas de IA de riesgo limitado están sujetos a obligaciones de transparencia más ligeras (por ejemplo, los desarrolladores y ejecutores deben asegurar que los usuarios finales sean conscientes de que están interactuando con IA); la actividad de IA de riesgo mínimo (la mayor parte de la IA actualmente en uso) queda en gran medida sin regular.

Implicaciones para los Empleadores

Los empleadores deben evaluar la clasificación de riesgo de los sistemas de IA desplegados en el lugar de trabajo o como parte del proceso de empleo y asegurar el cumplimiento con las disposiciones de la ley, incluyendo comunicaciones con los empleados y la asignación de supervisión humana según corresponda. Es importante señalar que gran parte de la controversia en torno a la ley es que busca regular capacidades potenciales (así como reales) de los sistemas de IA, lo que podría inhibir el desarrollo y la utilización de nuevos sistemas de IA.

La ley define un sistema de IA como “un sistema basado en máquinas diseñado para operar con diversos niveles de autonomía y que puede exhibir adaptabilidad después de su implementación, y que, con objetivos explícitos o implícitos, infiere, a partir de la información que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.”

Contacto para Consultas

Unidad de Investigación Global

Correo electrónico: global.research@willistowerswatson.com

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...