La paradoja del reconocimiento emocional en la regulación de la IA

¿No hay una obvia laguna en la prohibición de tecnologías de reconocimiento emocional de la Ley de IA?

La Tecnología de Reconocimiento Emocional (ERT, por sus siglas en inglés) se refiere a sistemas que detectan e identifican los estados emocionales de las personas a través de diversos métodos. Estas tecnologías han estado en uso durante casi 10 años, generando controversia con cada lanzamiento. Ejemplos notables incluyen Rekognition de Amazon, Microsoft Azure Emotion Recognition y Emotient, adquirida por Apple. Estas plataformas afirman poder detectar emociones a través de expresiones faciales.

El mercado de ERT se estimó en alrededor de $20 mil millones en 2019, con una proyección de superar los $50 mil millones para finales de 2024. Las aplicaciones de estas tecnologías abarcan desde aeropuertos y escuelas hasta redes sociales y herramientas de cumplimiento legal.

La importancia de las emociones en la toma de decisiones

Las emociones y las expresiones emocionales han llevado un peso significativo en la evaluación del carácter y las intenciones de una persona. La capacidad de analizar las emociones de otros puede influir en decisiones cruciales, como la confianza en un colega o el veredicto de un jurado. El juez de la Corte Suprema de los EE.UU., Anthony Kennedy, mencionó en 1992 que conocer si un acusado se siente culpable o remordido es esencial para entender su corazón y mente.

Controversias en la interpretación emocional

Sin embargo, la idea de que las emociones expresadas pueden revelar el verdadero estado mental de una persona ha sido objeto de debate. Muchas personas pueden decepcionar a otros en cuanto a sus emociones, lo que plantea interrogantes sobre la accesibilidad de los estados internos. A pesar de la creencia de que los síntomas fisiológicos son indicativos de estados afectivos, la detección precisa sigue siendo un desafío.

Regulación y la Ley de IA

En 2016, la palabra «emoción» no se mencionó en el GDPR, pero para 2021 apareció 10 veces en la Ley de IA y 20 veces en su versión renovada de 2024. Esta ley clasifica a las ERT como tecnologías de alto riesgo y prohíbe su uso en el lugar de trabajo y en instituciones educativas. Las ERT se definen como sistemas de IA diseñados para identificar o inferir emociones o intenciones basadas en datos biométricos.

La prohibición se justifica por los defectos técnicos de estas tecnologías, como su fiabilidad limitada y la falta de especificidad. Sin embargo, esto ha llevado a una distinción crucial: la ley prohíbe inferir estados emocionales pero permite identificar expresiones emocionales, lo que crea un vacío legal.

El futuro de las ERT y sus implicaciones

A pesar de la regulación actual, sigue existiendo un interés en la detección de emociones. La pausa en la implementación de estas tecnologías puede ser temporal; la regulación no protege a los usuarios de las ERT que podrían considerarse funcionales. A medida que la tecnología avanza, es plausible que las ERT multimodales con monitoreo en tiempo real superen los desafíos técnicos actuales.

La pregunta que queda es: ¿cuáles serán las consecuencias de las ERT plenamente funcionales para los individuos y la sociedad? En un mundo donde la comprensión emocional es vista como parte esencial del desarrollo de sistemas de IA, es vital evaluar el impacto de la comercialización de la vida afectiva en la era de la doxa de datos.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...