Impacto de la Ley de IA de la UE en los Sistemas de Reconocimiento Emocional en el Trabajo

La Ley de IA de la UE – Enfoque en los Sistemas de Reconocimiento Emocional en el Lugar de Trabajo

La inteligencia artificial de reconocimiento emocional (Emotion AI) se refiere a la IA que utiliza diversos conjuntos de datos biométricos y otros, como expresiones faciales, pulsaciones de teclas, tono de voz y mannerismos conductuales para identificar, inferir y analizar emociones. Basada en la computación afectiva, con orígenes en los años 90, este campo multidisciplinario combina estudios de procesamiento de lenguaje natural, psicología y sociología.

Recientemente, la Emotion AI se ha beneficiado de un aumento sin precedentes en el poder de cómputo. La tecnología de sensores sofisticados en dispositivos e IoT permite que enormes cantidades de datos sean evaluadas por estos sistemas. Se ha informado que se proyecta que el mercado de la Emotion AI crecerá de USD 3 mil millones en 2024 a USD 7 mil millones en los próximos cinco años.

La Emotion AI se implementa cada vez más en muchos contextos, incluyendo la detección de conflictos, crimen o daño en espacios públicos como estaciones de tren o sitios de construcción. También se utiliza en los sectores tecnológico y de bienes de consumo, donde los insights detallados del cliente, las ventas hiper-personalizadas y la segmentación de mercado matizada son el objetivo principal.

Varias organizaciones compiten por ofrecer a sus clientes la clave para predecir lo que realmente desean, incluyendo más allá de los gigantes tecnológicos tradicionales. Una startup australiana está actualmente en pruebas beta de lo que ha denominado «el primer modelo de lenguaje emocional del mundo», que tiene como objetivo rastrear la emoción en tiempo real. Otros están lanzando chatbots terapéuticos utilizando Emotion AI para ayudar a las personas a mejorar su salud mental.

No obstante, dado que la Emotion AI es ahora una tecnología fuertemente regulada, las organizaciones que desarrollan y utilizan estas aplicaciones deben mantenerse dentro del marco legal.

Requisitos de la Ley de IA de la UE

Desde su entrada en vigor el 1 de agosto de 2024, la Ley de IA de la UE impone requisitos robustos en torno a la Emotion AI, clasificándola en las categorías de “Alto Riesgo” y “Uso Prohibido”, dependiendo del contexto.

La Emotion AI que cae dentro de la categoría Prohibida ya está efectivamente prohibida en la UE. A partir del 2 de febrero de 2025, el Artículo 5(1)(f) de la Ley de IA de la UE prohíbe “la colocación en el mercado, la puesta en servicio para este propósito específico, o el uso de sistemas de IA para inferir emociones de una persona natural en las áreas de trabajo y instituciones educativas, … excepto cuando el uso esté destinado a razones médicas o de seguridad”.

La Comisión Europea publicó el 4 de febrero de 2025 las «Directrices sobre prácticas de inteligencia artificial prohibidas» para proporcionar más información sobre los parámetros de las diversas definiciones.

Aplicaciones Prácticas de Emotion AI en el Lugar de Trabajo

Este artículo profundiza en dos aplicaciones prácticas de Emotion AI en entornos laborales para ilustrar el impacto de estas nuevas reglas. También se destacan los desafíos que se esperan en la práctica, dada la interpretación matizada de la prohibición del Artículo 5(1)(f) establecida en las Directrices.

Caso de Estudio 1: Análisis de Sentimientos en Llamadas de Ventas

El primer caso de estudio involucra el uso de análisis de sentimientos en llamadas de ventas. Consideremos un equipo de ventas ocupado en una empresa tecnológica que busca alcanzar su objetivo mensual en términos de contacto con nuevos clientes y cierres de negocios. El Director de Ingresos de esta empresa global, con sede en EE. UU., busca implementar un nuevo software que permita un entrenamiento uniforme en la capacitación de ventas para el personal en todo el equipo global.

Este software destacará las características de las llamadas realizadas por los mejores vendedores, comparándolas con las de los menos exitosos. Todo el equipo de ventas se clasifica en una tabla de líderes cada mes, con los mejores vendedores celebrados por la empresa.

La implementación de software de grabación y análisis de llamadas se considera invaluable para determinar la clave del éxito en tales llamadas y, en última instancia, los ingresos para la empresa.

Caso de Estudio 2: Proceso de Contratación en una Consultoría

El segundo caso de estudio involucra a una consultoría que desea ampliar su red de reclutamiento para aceptar solicitudes para roles completamente remotos, utilizando un proceso de solicitud y incorporación totalmente remoto. La empresa está interesada en adoptar software que permita la programación de entrevistas utilizando una plataforma que incluya características innovadoras impulsadas por IA.

La tecnología incluye una función que evalúa las expresiones faciales de los candidatos, el tono de voz y otras señales no verbales para identificar entusiasmo o confianza, estrés o desinterés.

Conclusiones y Recomendaciones

La introducción de la Ley de IA de la UE significa que la mayoría de las empresas necesitarán aumentar su vigilancia con respecto a sus prácticas de IA, especialmente en aplicaciones desplegadas en relación con empleados o solicitantes de empleo.

Los sistemas de gobernanza apropiados, que incluyen capacitación interna y educación, así como una debida diligencia robusta y auditorías para permitir la identificación de cualquier uso potencial prohibido de la IA, serán clave para que las organizaciones cumplan con la Ley.

Fuera de las prácticas prohibidas en el lugar de trabajo, las empresas que implementen sistemas de reconocimiento emocional en relación con los clientes deberán asegurarse de cumplir con las normas para los Sistemas de IA de Alto Riesgo. Las disposiciones relevantes de la Ley de IA de la UE que se aplican a la IA de Alto Riesgo entrarán en vigor en agosto de 2026, y se espera más orientación de la Comisión Europea sobre la interpretación de las diversas definiciones y obligaciones relacionadas con la Emotion AI de Alto Riesgo.

Las consecuencias de proporcionar o utilizar Sistemas de IA Prohibidos en la UE conllevan las multas más altas bajo la Ley de IA de la UE, siendo la mayor de EUR 35,000,000 o el 7% de la facturación anual total de la organización. Dado que esta multa podría combinarse con una multa bajo el GDPR, la organización podría enfrentarse a una multa de hasta el 11% de la facturación total. También hay un impacto reputacional significativo por cometer estos errores. Por lo tanto, el momento de actuar en la construcción de su gobernanza de IA es ahora.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...