¿No hay una obvia laguna en la prohibición de tecnologías de reconocimiento emocional de la Ley de IA?
La Tecnología de Reconocimiento Emocional (ERT, por sus siglas en inglés) se refiere a sistemas que detectan e identifican los estados emocionales de las personas a través de diversos métodos. Estas tecnologías han estado en uso durante casi 10 años, generando controversia con cada lanzamiento. Ejemplos notables incluyen Rekognition de Amazon, Microsoft Azure Emotion Recognition y Emotient, adquirida por Apple. Estas plataformas afirman poder detectar emociones a través de expresiones faciales.
El mercado de ERT se estimó en alrededor de $20 mil millones en 2019, con una proyección de superar los $50 mil millones para finales de 2024. Las aplicaciones de estas tecnologías abarcan desde aeropuertos y escuelas hasta redes sociales y herramientas de cumplimiento legal.
La importancia de las emociones en la toma de decisiones
Las emociones y las expresiones emocionales han llevado un peso significativo en la evaluación del carácter y las intenciones de una persona. La capacidad de analizar las emociones de otros puede influir en decisiones cruciales, como la confianza en un colega o el veredicto de un jurado. El juez de la Corte Suprema de los EE.UU., Anthony Kennedy, mencionó en 1992 que conocer si un acusado se siente culpable o remordido es esencial para entender su corazón y mente.
Controversias en la interpretación emocional
Sin embargo, la idea de que las emociones expresadas pueden revelar el verdadero estado mental de una persona ha sido objeto de debate. Muchas personas pueden decepcionar a otros en cuanto a sus emociones, lo que plantea interrogantes sobre la accesibilidad de los estados internos. A pesar de la creencia de que los síntomas fisiológicos son indicativos de estados afectivos, la detección precisa sigue siendo un desafío.
Regulación y la Ley de IA
En 2016, la palabra «emoción» no se mencionó en el GDPR, pero para 2021 apareció 10 veces en la Ley de IA y 20 veces en su versión renovada de 2024. Esta ley clasifica a las ERT como tecnologías de alto riesgo y prohíbe su uso en el lugar de trabajo y en instituciones educativas. Las ERT se definen como sistemas de IA diseñados para identificar o inferir emociones o intenciones basadas en datos biométricos.
La prohibición se justifica por los defectos técnicos de estas tecnologías, como su fiabilidad limitada y la falta de especificidad. Sin embargo, esto ha llevado a una distinción crucial: la ley prohíbe inferir estados emocionales pero permite identificar expresiones emocionales, lo que crea un vacío legal.
El futuro de las ERT y sus implicaciones
A pesar de la regulación actual, sigue existiendo un interés en la detección de emociones. La pausa en la implementación de estas tecnologías puede ser temporal; la regulación no protege a los usuarios de las ERT que podrían considerarse funcionales. A medida que la tecnología avanza, es plausible que las ERT multimodales con monitoreo en tiempo real superen los desafíos técnicos actuales.
La pregunta que queda es: ¿cuáles serán las consecuencias de las ERT plenamente funcionales para los individuos y la sociedad? En un mundo donde la comprensión emocional es vista como parte esencial del desarrollo de sistemas de IA, es vital evaluar el impacto de la comercialización de la vida afectiva en la era de la doxa de datos.