Nuevas regulaciones de la UE sobre el uso de IA en el trabajo

Nuevas normas de la U.E. sobre el uso de la IA en el lugar de trabajo

La Unión Europea está implementando estrictas regulaciones en relación con las actividades de inteligencia artificial que representan riesgos altos y inaceptables, especialmente aquellas que se utilizan en el ámbito laboral.

El Acta de IA

El Acta de IA, que se está implementando en etapas hasta el 2 de agosto de 2026, se aplica a todos los Estados miembros sin necesidad de que se adopte legislación local, aunque algunos Estados pueden optar por hacerlo. Este acto clasifica, define y regula las actividades de IA en función de cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo.

Prohibiciones y restricciones

Las aplicaciones de IA que presentan un nivel de riesgo inaceptable están prohibidas. Esto incluye sistemas utilizados para el “social scoring”, que evalúan o categorizan a las personas según su comportamiento social o características de personalidad, lo que puede dar lugar a un tratamiento desfavorable. También se prohíbe la categorización biométrica destinada a inferir atributos personales protegidos, como la raza, la afiliación sindical y la orientación sexual. La prohibición de estas aplicaciones de IA entró en vigor el 2 de febrero de 2025.

Regulaciones para sistemas de IA de alto riesgo

Los sistemas de IA de alto riesgo estarán sujetos a una regulación sustancial, mayormente dirigida a los desarrolladores del sistema. Los empleadores que implementen estos sistemas tendrán obligaciones menores, como garantizar la supervisión humana y hacer un uso adecuado del sistema. Se publicarán guías adicionales sobre la implementación de sistemas de alto riesgo antes del 2 de febrero de 2026, y los requisitos relacionados con estos sistemas comenzarán a aplicarse el 2 de agosto de 2026.

Obligaciones para los empleadores

En el caso de los sistemas de IA de alto riesgo utilizados en el lugar de trabajo, es obligatorio que los empleadores informen a los representantes de los trabajadores y a los trabajadores afectados antes de poner el sistema en funcionamiento. Se definen como sistemas de IA de alto riesgo relacionados con el empleo aquellos que se utilizan para reclutar o seleccionar individuos, analizar y filtrar solicitudes de empleo, evaluar candidatos y tomar decisiones que afecten los términos de las relaciones laborales, así como para la promoción o terminación de relaciones contractuales laborales.

IA de riesgo limitado y mínimo

Los sistemas de IA de riesgo limitado estarán sujetos a obligaciones de transparencia más ligeras, como garantizar que los usuarios finales sean conscientes de que están interactuando con IA. Por otro lado, las actividades de IA de mínimo riesgo, que constituyen la mayor parte de la IA actualmente en uso, quedan en gran medida sin regular.

Estas nuevas regulaciones de la U.E. marcan un paso significativo hacia la gestión responsable de la inteligencia artificial en el entorno laboral, estableciendo un marco que busca proteger tanto a los trabajadores como a las empresas en un mundo cada vez más automatizado.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...