La paradoja del reconocimiento emocional en la regulación de la IA

¿No hay una obvia laguna en la prohibición de tecnologías de reconocimiento emocional de la Ley de IA?

La Tecnología de Reconocimiento Emocional (ERT, por sus siglas en inglés) se refiere a sistemas que detectan e identifican los estados emocionales de las personas a través de diversos métodos. Estas tecnologías han estado en uso durante casi 10 años, generando controversia con cada lanzamiento. Ejemplos notables incluyen Rekognition de Amazon, Microsoft Azure Emotion Recognition y Emotient, adquirida por Apple. Estas plataformas afirman poder detectar emociones a través de expresiones faciales.

El mercado de ERT se estimó en alrededor de $20 mil millones en 2019, con una proyección de superar los $50 mil millones para finales de 2024. Las aplicaciones de estas tecnologías abarcan desde aeropuertos y escuelas hasta redes sociales y herramientas de cumplimiento legal.

La importancia de las emociones en la toma de decisiones

Las emociones y las expresiones emocionales han llevado un peso significativo en la evaluación del carácter y las intenciones de una persona. La capacidad de analizar las emociones de otros puede influir en decisiones cruciales, como la confianza en un colega o el veredicto de un jurado. El juez de la Corte Suprema de los EE.UU., Anthony Kennedy, mencionó en 1992 que conocer si un acusado se siente culpable o remordido es esencial para entender su corazón y mente.

Controversias en la interpretación emocional

Sin embargo, la idea de que las emociones expresadas pueden revelar el verdadero estado mental de una persona ha sido objeto de debate. Muchas personas pueden decepcionar a otros en cuanto a sus emociones, lo que plantea interrogantes sobre la accesibilidad de los estados internos. A pesar de la creencia de que los síntomas fisiológicos son indicativos de estados afectivos, la detección precisa sigue siendo un desafío.

Regulación y la Ley de IA

En 2016, la palabra «emoción» no se mencionó en el GDPR, pero para 2021 apareció 10 veces en la Ley de IA y 20 veces en su versión renovada de 2024. Esta ley clasifica a las ERT como tecnologías de alto riesgo y prohíbe su uso en el lugar de trabajo y en instituciones educativas. Las ERT se definen como sistemas de IA diseñados para identificar o inferir emociones o intenciones basadas en datos biométricos.

La prohibición se justifica por los defectos técnicos de estas tecnologías, como su fiabilidad limitada y la falta de especificidad. Sin embargo, esto ha llevado a una distinción crucial: la ley prohíbe inferir estados emocionales pero permite identificar expresiones emocionales, lo que crea un vacío legal.

El futuro de las ERT y sus implicaciones

A pesar de la regulación actual, sigue existiendo un interés en la detección de emociones. La pausa en la implementación de estas tecnologías puede ser temporal; la regulación no protege a los usuarios de las ERT que podrían considerarse funcionales. A medida que la tecnología avanza, es plausible que las ERT multimodales con monitoreo en tiempo real superen los desafíos técnicos actuales.

La pregunta que queda es: ¿cuáles serán las consecuencias de las ERT plenamente funcionales para los individuos y la sociedad? En un mundo donde la comprensión emocional es vista como parte esencial del desarrollo de sistemas de IA, es vital evaluar el impacto de la comercialización de la vida afectiva en la era de la doxa de datos.

More Insights

Inteligencia Artificial y Ciberseguridad: Desafíos de Responsabilidad

A medida que las organizaciones adoptan la inteligencia artificial (IA) para impulsar la innovación y transformar las operaciones, deben enfrentar una nueva realidad: la IA está remodelando...

Enfoque Inteligente para la Gobernanza de la IA en Tailandia

El Sr. Sak menciona que la próxima legislación tiene como objetivo proteger a los usuarios de los posibles riesgos de la IA y eliminar las barreras legales que las leyes existentes no pueden abordar...

Texas Establece Leyes de Gobernanza de IA con Enfoque en Salud

Texas ha dado un paso significativo en la regulación de la inteligencia artificial (IA) con la aprobación de los proyectos de ley HB 149 y SB 1188, que establecen un marco amplio para el uso...

Gillian K. Hadfield: Nueva Líder en Gobernanza de IA

Gillian K. Hadfield ha sido nombrada Profesora Distinguida Bloomberg de Alineación y Gobernanza de la IA en la Universidad Johns Hopkins. Su investigación se centra en asegurar que los sistemas de...

Gobernanza Ética e Inclusiva de la IA en Indonesia

El Ministerio de Comunicación y Digital de Indonesia ha reafirmado su compromiso de incorporar principios éticos e inclusivos en sus políticas de inteligencia artificial (IA). El Vice Ministro Nezar...

Texas y la Nueva Ley de Gobernanza de IA Responsable

El 22 de junio de 2025, el gobernador Abbott firmó la Ley de Gobernanza de Inteligencia Artificial Responsable de Texas, convirtiendo a Texas en el tercer estado de EE. UU. en adoptar una ley integral...

La IA como Ventaja Competitiva en Cumplimiento Normativo

La inteligencia artificial está ayudando a las empresas a cumplir con una compleja gama de regulaciones en constante evolución, brindándoles una ventaja competitiva. Las herramientas basadas en IA...