Nuevas normas de la U.E. sobre el uso de la IA en el lugar de trabajo
La Unión Europea está implementando estrictas regulaciones en relación con las actividades de inteligencia artificial que representan riesgos altos y inaceptables, especialmente aquellas que se utilizan en el ámbito laboral.
El Acta de IA
El Acta de IA, que se está implementando en etapas hasta el 2 de agosto de 2026, se aplica a todos los Estados miembros sin necesidad de que se adopte legislación local, aunque algunos Estados pueden optar por hacerlo. Este acto clasifica, define y regula las actividades de IA en función de cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo.
Prohibiciones y restricciones
Las aplicaciones de IA que presentan un nivel de riesgo inaceptable están prohibidas. Esto incluye sistemas utilizados para el “social scoring”, que evalúan o categorizan a las personas según su comportamiento social o características de personalidad, lo que puede dar lugar a un tratamiento desfavorable. También se prohíbe la categorización biométrica destinada a inferir atributos personales protegidos, como la raza, la afiliación sindical y la orientación sexual. La prohibición de estas aplicaciones de IA entró en vigor el 2 de febrero de 2025.
Regulaciones para sistemas de IA de alto riesgo
Los sistemas de IA de alto riesgo estarán sujetos a una regulación sustancial, mayormente dirigida a los desarrolladores del sistema. Los empleadores que implementen estos sistemas tendrán obligaciones menores, como garantizar la supervisión humana y hacer un uso adecuado del sistema. Se publicarán guías adicionales sobre la implementación de sistemas de alto riesgo antes del 2 de febrero de 2026, y los requisitos relacionados con estos sistemas comenzarán a aplicarse el 2 de agosto de 2026.
Obligaciones para los empleadores
En el caso de los sistemas de IA de alto riesgo utilizados en el lugar de trabajo, es obligatorio que los empleadores informen a los representantes de los trabajadores y a los trabajadores afectados antes de poner el sistema en funcionamiento. Se definen como sistemas de IA de alto riesgo relacionados con el empleo aquellos que se utilizan para reclutar o seleccionar individuos, analizar y filtrar solicitudes de empleo, evaluar candidatos y tomar decisiones que afecten los términos de las relaciones laborales, así como para la promoción o terminación de relaciones contractuales laborales.
IA de riesgo limitado y mínimo
Los sistemas de IA de riesgo limitado estarán sujetos a obligaciones de transparencia más ligeras, como garantizar que los usuarios finales sean conscientes de que están interactuando con IA. Por otro lado, las actividades de IA de mínimo riesgo, que constituyen la mayor parte de la IA actualmente en uso, quedan en gran medida sin regular.
Estas nuevas regulaciones de la U.E. marcan un paso significativo hacia la gestión responsable de la inteligencia artificial en el entorno laboral, estableciendo un marco que busca proteger tanto a los trabajadores como a las empresas en un mundo cada vez más automatizado.