Impacto de la Ley de IA de la UE en los Sistemas de Reconocimiento Emocional en el Trabajo

La Ley de IA de la UE – Enfoque en los Sistemas de Reconocimiento Emocional en el Lugar de Trabajo

La inteligencia artificial de reconocimiento emocional (Emotion AI) se refiere a la IA que utiliza diversos conjuntos de datos biométricos y otros, como expresiones faciales, pulsaciones de teclas, tono de voz y mannerismos conductuales para identificar, inferir y analizar emociones. Basada en la computación afectiva, con orígenes en los años 90, este campo multidisciplinario combina estudios de procesamiento de lenguaje natural, psicología y sociología.

Recientemente, la Emotion AI se ha beneficiado de un aumento sin precedentes en el poder de cómputo. La tecnología de sensores sofisticados en dispositivos e IoT permite que enormes cantidades de datos sean evaluadas por estos sistemas. Se ha informado que se proyecta que el mercado de la Emotion AI crecerá de USD 3 mil millones en 2024 a USD 7 mil millones en los próximos cinco años.

La Emotion AI se implementa cada vez más en muchos contextos, incluyendo la detección de conflictos, crimen o daño en espacios públicos como estaciones de tren o sitios de construcción. También se utiliza en los sectores tecnológico y de bienes de consumo, donde los insights detallados del cliente, las ventas hiper-personalizadas y la segmentación de mercado matizada son el objetivo principal.

Varias organizaciones compiten por ofrecer a sus clientes la clave para predecir lo que realmente desean, incluyendo más allá de los gigantes tecnológicos tradicionales. Una startup australiana está actualmente en pruebas beta de lo que ha denominado «el primer modelo de lenguaje emocional del mundo», que tiene como objetivo rastrear la emoción en tiempo real. Otros están lanzando chatbots terapéuticos utilizando Emotion AI para ayudar a las personas a mejorar su salud mental.

No obstante, dado que la Emotion AI es ahora una tecnología fuertemente regulada, las organizaciones que desarrollan y utilizan estas aplicaciones deben mantenerse dentro del marco legal.

Requisitos de la Ley de IA de la UE

Desde su entrada en vigor el 1 de agosto de 2024, la Ley de IA de la UE impone requisitos robustos en torno a la Emotion AI, clasificándola en las categorías de “Alto Riesgo” y “Uso Prohibido”, dependiendo del contexto.

La Emotion AI que cae dentro de la categoría Prohibida ya está efectivamente prohibida en la UE. A partir del 2 de febrero de 2025, el Artículo 5(1)(f) de la Ley de IA de la UE prohíbe “la colocación en el mercado, la puesta en servicio para este propósito específico, o el uso de sistemas de IA para inferir emociones de una persona natural en las áreas de trabajo y instituciones educativas, … excepto cuando el uso esté destinado a razones médicas o de seguridad”.

La Comisión Europea publicó el 4 de febrero de 2025 las «Directrices sobre prácticas de inteligencia artificial prohibidas» para proporcionar más información sobre los parámetros de las diversas definiciones.

Aplicaciones Prácticas de Emotion AI en el Lugar de Trabajo

Este artículo profundiza en dos aplicaciones prácticas de Emotion AI en entornos laborales para ilustrar el impacto de estas nuevas reglas. También se destacan los desafíos que se esperan en la práctica, dada la interpretación matizada de la prohibición del Artículo 5(1)(f) establecida en las Directrices.

Caso de Estudio 1: Análisis de Sentimientos en Llamadas de Ventas

El primer caso de estudio involucra el uso de análisis de sentimientos en llamadas de ventas. Consideremos un equipo de ventas ocupado en una empresa tecnológica que busca alcanzar su objetivo mensual en términos de contacto con nuevos clientes y cierres de negocios. El Director de Ingresos de esta empresa global, con sede en EE. UU., busca implementar un nuevo software que permita un entrenamiento uniforme en la capacitación de ventas para el personal en todo el equipo global.

Este software destacará las características de las llamadas realizadas por los mejores vendedores, comparándolas con las de los menos exitosos. Todo el equipo de ventas se clasifica en una tabla de líderes cada mes, con los mejores vendedores celebrados por la empresa.

La implementación de software de grabación y análisis de llamadas se considera invaluable para determinar la clave del éxito en tales llamadas y, en última instancia, los ingresos para la empresa.

Caso de Estudio 2: Proceso de Contratación en una Consultoría

El segundo caso de estudio involucra a una consultoría que desea ampliar su red de reclutamiento para aceptar solicitudes para roles completamente remotos, utilizando un proceso de solicitud y incorporación totalmente remoto. La empresa está interesada en adoptar software que permita la programación de entrevistas utilizando una plataforma que incluya características innovadoras impulsadas por IA.

La tecnología incluye una función que evalúa las expresiones faciales de los candidatos, el tono de voz y otras señales no verbales para identificar entusiasmo o confianza, estrés o desinterés.

Conclusiones y Recomendaciones

La introducción de la Ley de IA de la UE significa que la mayoría de las empresas necesitarán aumentar su vigilancia con respecto a sus prácticas de IA, especialmente en aplicaciones desplegadas en relación con empleados o solicitantes de empleo.

Los sistemas de gobernanza apropiados, que incluyen capacitación interna y educación, así como una debida diligencia robusta y auditorías para permitir la identificación de cualquier uso potencial prohibido de la IA, serán clave para que las organizaciones cumplan con la Ley.

Fuera de las prácticas prohibidas en el lugar de trabajo, las empresas que implementen sistemas de reconocimiento emocional en relación con los clientes deberán asegurarse de cumplir con las normas para los Sistemas de IA de Alto Riesgo. Las disposiciones relevantes de la Ley de IA de la UE que se aplican a la IA de Alto Riesgo entrarán en vigor en agosto de 2026, y se espera más orientación de la Comisión Europea sobre la interpretación de las diversas definiciones y obligaciones relacionadas con la Emotion AI de Alto Riesgo.

Las consecuencias de proporcionar o utilizar Sistemas de IA Prohibidos en la UE conllevan las multas más altas bajo la Ley de IA de la UE, siendo la mayor de EUR 35,000,000 o el 7% de la facturación anual total de la organización. Dado que esta multa podría combinarse con una multa bajo el GDPR, la organización podría enfrentarse a una multa de hasta el 11% de la facturación total. También hay un impacto reputacional significativo por cometer estos errores. Por lo tanto, el momento de actuar en la construcción de su gobernanza de IA es ahora.

More Insights

Construyendo Confianza en la Era de la IA

La inteligencia artificial promete un aumento en la productividad para los mercadólogos, pero solo si se guía por una estrategia clara y supervisión humana. La pregunta no es si usar IA, sino cómo...

Gobernanza en la Nube para la Era de la IA

En la era de la inteligencia artificial, los modelos de gobernanza en la nube deben evolucionar para mantener el ritmo de la innovación. La gobernanza debe ser preventiva y estar integrada en la...

Guía para la Gobernanza de IA en Juntas Directivas

Con la inteligencia artificial (IA) convirtiéndose en una parte clave de los negocios modernos, la Confederación de la Industria India (CII) lanzó un nuevo manual para ayudar a los consejos de...

DevSecOps Potenciado por IA: Retos y Oportunidades en un Mundo de Cero Confianza

La rápida adopción de la automatización impulsada por IA en DevSecOps presenta tanto oportunidades como desafíos, ya que la dependencia excesiva de la automatización puede crear puntos ciegos en la...

Centro Cyril Shroff: La Vanguardia en Regulación de IA y Derecho

En un desarrollo pionero, Cyril Amarchand Mangaldas y la Universidad Global O.P. Jindal han anunciado el establecimiento del Centro Cyril Shroff para la IA, la Ley y la Regulación en la Escuela de...

Darwin Lanza una Herramienta Gratuita para Simplificar la Gobernanza de IA en Agencias Públicas

Darwin ha lanzado su AI Policy Wizard, una herramienta gratuita e interactiva diseñada para ayudar a los gobiernos locales y agencias públicas a crear políticas de IA prácticas y personalizadas. Esta...

Restaurando la Confianza en la IA a Través de la Gobernanza

Ulla Coester, directora de proyectos en la Universidad Fresenius de Ciencias Aplicadas, enfatiza que la gobernanza debe adaptarse al comportamiento para construir confianza en la IA. Es crucial que...

Cultura como Pilar de la IA Confiable

Este informe analiza cómo la gobernanza inclusiva de la inteligencia artificial (IA) es crucial para permitir que las voces pasadas por alto participen en el acceso y desarrollo de la IA. Además, se...

Cumplimiento de derechos de autor en la Ley de IA de la UE

Un desafío clave en el entrenamiento de modelos de inteligencia artificial generativa es garantizar el cumplimiento de las leyes de derechos de autor. La Ley de IA de la UE refuerza la necesidad de...