Nuevas regulaciones de la UE sobre el uso de IA en el trabajo

Nuevas normas de la U.E. sobre el uso de la IA en el lugar de trabajo

La Unión Europea está implementando estrictas regulaciones en relación con las actividades de inteligencia artificial que representan riesgos altos y inaceptables, especialmente aquellas que se utilizan en el ámbito laboral.

El Acta de IA

El Acta de IA, que se está implementando en etapas hasta el 2 de agosto de 2026, se aplica a todos los Estados miembros sin necesidad de que se adopte legislación local, aunque algunos Estados pueden optar por hacerlo. Este acto clasifica, define y regula las actividades de IA en función de cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo.

Prohibiciones y restricciones

Las aplicaciones de IA que presentan un nivel de riesgo inaceptable están prohibidas. Esto incluye sistemas utilizados para el “social scoring”, que evalúan o categorizan a las personas según su comportamiento social o características de personalidad, lo que puede dar lugar a un tratamiento desfavorable. También se prohíbe la categorización biométrica destinada a inferir atributos personales protegidos, como la raza, la afiliación sindical y la orientación sexual. La prohibición de estas aplicaciones de IA entró en vigor el 2 de febrero de 2025.

Regulaciones para sistemas de IA de alto riesgo

Los sistemas de IA de alto riesgo estarán sujetos a una regulación sustancial, mayormente dirigida a los desarrolladores del sistema. Los empleadores que implementen estos sistemas tendrán obligaciones menores, como garantizar la supervisión humana y hacer un uso adecuado del sistema. Se publicarán guías adicionales sobre la implementación de sistemas de alto riesgo antes del 2 de febrero de 2026, y los requisitos relacionados con estos sistemas comenzarán a aplicarse el 2 de agosto de 2026.

Obligaciones para los empleadores

En el caso de los sistemas de IA de alto riesgo utilizados en el lugar de trabajo, es obligatorio que los empleadores informen a los representantes de los trabajadores y a los trabajadores afectados antes de poner el sistema en funcionamiento. Se definen como sistemas de IA de alto riesgo relacionados con el empleo aquellos que se utilizan para reclutar o seleccionar individuos, analizar y filtrar solicitudes de empleo, evaluar candidatos y tomar decisiones que afecten los términos de las relaciones laborales, así como para la promoción o terminación de relaciones contractuales laborales.

IA de riesgo limitado y mínimo

Los sistemas de IA de riesgo limitado estarán sujetos a obligaciones de transparencia más ligeras, como garantizar que los usuarios finales sean conscientes de que están interactuando con IA. Por otro lado, las actividades de IA de mínimo riesgo, que constituyen la mayor parte de la IA actualmente en uso, quedan en gran medida sin regular.

Estas nuevas regulaciones de la U.E. marcan un paso significativo hacia la gestión responsable de la inteligencia artificial en el entorno laboral, estableciendo un marco que busca proteger tanto a los trabajadores como a las empresas en un mundo cada vez más automatizado.

More Insights

La falta de transparencia en la regulación de IA perjudica a Europa

La UE está en riesgo de comprometer principios fundamentales al intentar simplificar las regulaciones para las empresas tecnológicas, confundiendo la transparencia con un obstáculo para la innovación...

El Congreso y los tribunales enfrentan los desafíos legales de la IA

La inteligencia artificial se está convirtiendo rápidamente en una parte integral de la vida cotidiana, lo que intensifica el debate sobre cómo utilizarla de manera adecuada y ética. El Congreso y los...

El Acta de IA de la UE: Desafíos y Oportunidades

La Ley de IA de la UE se convertirá en la primera regulación importante centrada en la inteligencia artificial, con el objetivo de garantizar que los sistemas de IA en Europa sean seguros y justos...

El Acta de IA de la UE: Desafíos y Oportunidades

La Ley de IA de la UE se convertirá en la primera regulación importante centrada en la inteligencia artificial, con el objetivo de garantizar que los sistemas de IA en Europa sean seguros y justos...

Impacto del modelo DeepSeek en la regulación de la IA en la UE

La aparición del modelo de IA chino DeepSeek está llevando a los responsables políticos de la UE a considerar cambios en la Ley de IA de la UE. Se prevé que una actualización de una medida de umbral...

Enfoques para Mitigar los Riesgos de la IA: ¿Suave, Duro o un Punto Intermedio?

El desarrollo de la inteligencia artificial presenta riesgos debido a que las herramientas modernas están desafiando los límites éticos bajo marcos legales existentes. Las diferencias regulatorias...

De Obstáculo a Potenciador: El Papel del Ingeniero de Datos en la IA Responsable

El artículo presenta un nuevo modelo de colaboración donde los equipos de ingeniería de datos pasan de ser constructores únicos a arquitectos de habilitación, empoderando a las unidades de negocio...

Riesgos y responsabilidades en la era de la IA

La inteligencia artificial (IA) está cada vez más presente en los negocios y en la vida social, pero su uso creciente también conlleva riesgos significativos, como sesgos algorítmicos y preocupaciones...