Impacto de la Ley de IA de la UE en los Sistemas de Reconocimiento Emocional en el Trabajo

La Ley de IA de la UE – Enfoque en los Sistemas de Reconocimiento Emocional en el Lugar de Trabajo

La inteligencia artificial de reconocimiento emocional (Emotion AI) se refiere a la IA que utiliza diversos conjuntos de datos biométricos y otros, como expresiones faciales, pulsaciones de teclas, tono de voz y mannerismos conductuales para identificar, inferir y analizar emociones. Basada en la computación afectiva, con orígenes en los años 90, este campo multidisciplinario combina estudios de procesamiento de lenguaje natural, psicología y sociología.

Recientemente, la Emotion AI se ha beneficiado de un aumento sin precedentes en el poder de cómputo. La tecnología de sensores sofisticados en dispositivos e IoT permite que enormes cantidades de datos sean evaluadas por estos sistemas. Se ha informado que se proyecta que el mercado de la Emotion AI crecerá de USD 3 mil millones en 2024 a USD 7 mil millones en los próximos cinco años.

La Emotion AI se implementa cada vez más en muchos contextos, incluyendo la detección de conflictos, crimen o daño en espacios públicos como estaciones de tren o sitios de construcción. También se utiliza en los sectores tecnológico y de bienes de consumo, donde los insights detallados del cliente, las ventas hiper-personalizadas y la segmentación de mercado matizada son el objetivo principal.

Varias organizaciones compiten por ofrecer a sus clientes la clave para predecir lo que realmente desean, incluyendo más allá de los gigantes tecnológicos tradicionales. Una startup australiana está actualmente en pruebas beta de lo que ha denominado «el primer modelo de lenguaje emocional del mundo», que tiene como objetivo rastrear la emoción en tiempo real. Otros están lanzando chatbots terapéuticos utilizando Emotion AI para ayudar a las personas a mejorar su salud mental.

No obstante, dado que la Emotion AI es ahora una tecnología fuertemente regulada, las organizaciones que desarrollan y utilizan estas aplicaciones deben mantenerse dentro del marco legal.

Requisitos de la Ley de IA de la UE

Desde su entrada en vigor el 1 de agosto de 2024, la Ley de IA de la UE impone requisitos robustos en torno a la Emotion AI, clasificándola en las categorías de “Alto Riesgo” y “Uso Prohibido”, dependiendo del contexto.

La Emotion AI que cae dentro de la categoría Prohibida ya está efectivamente prohibida en la UE. A partir del 2 de febrero de 2025, el Artículo 5(1)(f) de la Ley de IA de la UE prohíbe “la colocación en el mercado, la puesta en servicio para este propósito específico, o el uso de sistemas de IA para inferir emociones de una persona natural en las áreas de trabajo y instituciones educativas, … excepto cuando el uso esté destinado a razones médicas o de seguridad”.

La Comisión Europea publicó el 4 de febrero de 2025 las «Directrices sobre prácticas de inteligencia artificial prohibidas» para proporcionar más información sobre los parámetros de las diversas definiciones.

Aplicaciones Prácticas de Emotion AI en el Lugar de Trabajo

Este artículo profundiza en dos aplicaciones prácticas de Emotion AI en entornos laborales para ilustrar el impacto de estas nuevas reglas. También se destacan los desafíos que se esperan en la práctica, dada la interpretación matizada de la prohibición del Artículo 5(1)(f) establecida en las Directrices.

Caso de Estudio 1: Análisis de Sentimientos en Llamadas de Ventas

El primer caso de estudio involucra el uso de análisis de sentimientos en llamadas de ventas. Consideremos un equipo de ventas ocupado en una empresa tecnológica que busca alcanzar su objetivo mensual en términos de contacto con nuevos clientes y cierres de negocios. El Director de Ingresos de esta empresa global, con sede en EE. UU., busca implementar un nuevo software que permita un entrenamiento uniforme en la capacitación de ventas para el personal en todo el equipo global.

Este software destacará las características de las llamadas realizadas por los mejores vendedores, comparándolas con las de los menos exitosos. Todo el equipo de ventas se clasifica en una tabla de líderes cada mes, con los mejores vendedores celebrados por la empresa.

La implementación de software de grabación y análisis de llamadas se considera invaluable para determinar la clave del éxito en tales llamadas y, en última instancia, los ingresos para la empresa.

Caso de Estudio 2: Proceso de Contratación en una Consultoría

El segundo caso de estudio involucra a una consultoría que desea ampliar su red de reclutamiento para aceptar solicitudes para roles completamente remotos, utilizando un proceso de solicitud y incorporación totalmente remoto. La empresa está interesada en adoptar software que permita la programación de entrevistas utilizando una plataforma que incluya características innovadoras impulsadas por IA.

La tecnología incluye una función que evalúa las expresiones faciales de los candidatos, el tono de voz y otras señales no verbales para identificar entusiasmo o confianza, estrés o desinterés.

Conclusiones y Recomendaciones

La introducción de la Ley de IA de la UE significa que la mayoría de las empresas necesitarán aumentar su vigilancia con respecto a sus prácticas de IA, especialmente en aplicaciones desplegadas en relación con empleados o solicitantes de empleo.

Los sistemas de gobernanza apropiados, que incluyen capacitación interna y educación, así como una debida diligencia robusta y auditorías para permitir la identificación de cualquier uso potencial prohibido de la IA, serán clave para que las organizaciones cumplan con la Ley.

Fuera de las prácticas prohibidas en el lugar de trabajo, las empresas que implementen sistemas de reconocimiento emocional en relación con los clientes deberán asegurarse de cumplir con las normas para los Sistemas de IA de Alto Riesgo. Las disposiciones relevantes de la Ley de IA de la UE que se aplican a la IA de Alto Riesgo entrarán en vigor en agosto de 2026, y se espera más orientación de la Comisión Europea sobre la interpretación de las diversas definiciones y obligaciones relacionadas con la Emotion AI de Alto Riesgo.

Las consecuencias de proporcionar o utilizar Sistemas de IA Prohibidos en la UE conllevan las multas más altas bajo la Ley de IA de la UE, siendo la mayor de EUR 35,000,000 o el 7% de la facturación anual total de la organización. Dado que esta multa podría combinarse con una multa bajo el GDPR, la organización podría enfrentarse a una multa de hasta el 11% de la facturación total. También hay un impacto reputacional significativo por cometer estos errores. Por lo tanto, el momento de actuar en la construcción de su gobernanza de IA es ahora.

More Insights

Control y cumplimiento en la era de la IA soberana en manufactura

Los nubes de IA soberanas proporcionan tanto control como cumplimiento, abordando las crecientes preocupaciones en torno a la residencia de datos y el riesgo regulatorio. En un mundo donde la adopción...

Ética en la Inteligencia Artificial: Avances de la Alianza Escocesa

La Alianza Escocesa de IA ha publicado su Informe de Impacto 2024/2025, destacando un año transformador en la promoción de una inteligencia artificial ética e inclusiva en Escocia. El informe revela...

El futuro del cumplimiento con la Ley de IA de la UE

La Comisión Europea anunció el viernes pasado que no habrá un retraso en la Ley de IA de la UE, lo que ha provocado reacciones encontradas. Aunque algunas partes de la Ley ya están en vigor, los...

Modelos de Lenguaje y la Confianza: Un Análisis del Acta de IA de la UE

Este estudio sistemático examina la confianza en los modelos de lenguaje grande (LLMs) a la luz de la Ley de IA de la UE, destacando su desarrollo y adopción en diversos sectores. A pesar de sus...

¿Debería pausar la implementación de la Ley de IA de la UE?

La Comisión Europea ha rechazado las solicitudes de algunas empresas para retrasar la implementación de la Ley de IA, manteniendo el cronograma original de la legislación. Además, el primer ministro...

Controles más estrictos de IA: Ganadores y perdedores en el sector tecnológico

La administración de Trump está preparando nuevas restricciones a las exportaciones de chips de IA a Malasia y Tailandia para evitar que procesadores avanzados lleguen a China. Se prevé que estas...

Gobernanza de IA y Datos: Clave para Empresas Modernas

La gobernanza de la inteligencia artificial y la gobernanza de datos son fundamentales para garantizar el desarrollo de soluciones de IA éticas y de alta calidad. Estos marcos de gobernanza son...

Potenciando la IA Responsable: LLMOps con Python

En el panorama hipercompetitivo actual, no es suficiente con desplegar Modelos de Lenguaje Grande (LLMs); es necesario contar con un marco robusto de LLMOps para garantizar la fiabilidad y el...

Fortaleciendo la Protección de Datos y la Gobernanza de la IA en Singapur

Singapur está respondiendo proactivamente a los desafíos que plantea el uso de datos en la era de la inteligencia artificial, según la ministra de Comunicaciones e Información, Josephine Teo. La...