La paradoja del reconocimiento emocional en la regulación de la IA

¿No hay una obvia laguna en la prohibición de tecnologías de reconocimiento emocional de la Ley de IA?

La Tecnología de Reconocimiento Emocional (ERT, por sus siglas en inglés) se refiere a sistemas que detectan e identifican los estados emocionales de las personas a través de diversos métodos. Estas tecnologías han estado en uso durante casi 10 años, generando controversia con cada lanzamiento. Ejemplos notables incluyen Rekognition de Amazon, Microsoft Azure Emotion Recognition y Emotient, adquirida por Apple. Estas plataformas afirman poder detectar emociones a través de expresiones faciales.

El mercado de ERT se estimó en alrededor de $20 mil millones en 2019, con una proyección de superar los $50 mil millones para finales de 2024. Las aplicaciones de estas tecnologías abarcan desde aeropuertos y escuelas hasta redes sociales y herramientas de cumplimiento legal.

La importancia de las emociones en la toma de decisiones

Las emociones y las expresiones emocionales han llevado un peso significativo en la evaluación del carácter y las intenciones de una persona. La capacidad de analizar las emociones de otros puede influir en decisiones cruciales, como la confianza en un colega o el veredicto de un jurado. El juez de la Corte Suprema de los EE.UU., Anthony Kennedy, mencionó en 1992 que conocer si un acusado se siente culpable o remordido es esencial para entender su corazón y mente.

Controversias en la interpretación emocional

Sin embargo, la idea de que las emociones expresadas pueden revelar el verdadero estado mental de una persona ha sido objeto de debate. Muchas personas pueden decepcionar a otros en cuanto a sus emociones, lo que plantea interrogantes sobre la accesibilidad de los estados internos. A pesar de la creencia de que los síntomas fisiológicos son indicativos de estados afectivos, la detección precisa sigue siendo un desafío.

Regulación y la Ley de IA

En 2016, la palabra «emoción» no se mencionó en el GDPR, pero para 2021 apareció 10 veces en la Ley de IA y 20 veces en su versión renovada de 2024. Esta ley clasifica a las ERT como tecnologías de alto riesgo y prohíbe su uso en el lugar de trabajo y en instituciones educativas. Las ERT se definen como sistemas de IA diseñados para identificar o inferir emociones o intenciones basadas en datos biométricos.

La prohibición se justifica por los defectos técnicos de estas tecnologías, como su fiabilidad limitada y la falta de especificidad. Sin embargo, esto ha llevado a una distinción crucial: la ley prohíbe inferir estados emocionales pero permite identificar expresiones emocionales, lo que crea un vacío legal.

El futuro de las ERT y sus implicaciones

A pesar de la regulación actual, sigue existiendo un interés en la detección de emociones. La pausa en la implementación de estas tecnologías puede ser temporal; la regulación no protege a los usuarios de las ERT que podrían considerarse funcionales. A medida que la tecnología avanza, es plausible que las ERT multimodales con monitoreo en tiempo real superen los desafíos técnicos actuales.

La pregunta que queda es: ¿cuáles serán las consecuencias de las ERT plenamente funcionales para los individuos y la sociedad? En un mundo donde la comprensión emocional es vista como parte esencial del desarrollo de sistemas de IA, es vital evaluar el impacto de la comercialización de la vida afectiva en la era de la doxa de datos.

More Insights

Gobernanza de IA en Salud: Desafíos y Oportunidades

El paisaje regulatorio de la IA ha experimentado cambios monumentales en los últimos seis meses, con un enfoque creciente en la innovación en lugar de la regulación. Sin embargo, es crucial mantener...

La industria de IA exige un retraso en la ley básica ante regulaciones vagas

Se han planteado preocupaciones en la industria de que los estándares regulatorios ambiguos dentro de la ley básica de IA podrían obstaculizar el crecimiento del sector. Recientemente, Huang Jeong-a...

Cumpliendo con el GDPR y la Ley de IA de la UE en Marketing

Como comercializadores o dueños de negocios, sabemos lo desafiante que puede ser llegar a la audiencia adecuada en el momento oportuno. La conformidad con el GDPR es crucial para garantizar la...

La pirámide de riesgos de la Ley de IA de la UE

Una de las características definitorias de la Ley de IA de la UE es su enfoque basado en el riesgo, donde los sistemas de IA no se tratan por igual. La ley clasifica los sistemas de IA en cuatro...

Empresas de IA afirman que las regulaciones existentes pueden gobernar la IA agentiva

Las empresas de inteligencia artificial están adoptando la IA agentiva, que se considera la próxima evolución de la IA generativa. A medida que la innovación avanza, los desarrolladores de IA...

La UE prohíbe el uso de software de IA en reuniones en línea

La Comisión Europea ha prohibido inesperadamente el uso de asistentes virtuales impulsados por IA durante las reuniones en línea, a pesar de su creciente popularidad. Este movimiento ha suscitado...

Diseñando Confianza en la IA Responsable

El rápido avance de la inteligencia artificial (IA) en la tecnología cotidiana presenta grandes oportunidades, así como desafíos éticos significativos. Los diseñadores de productos están en la...

Interoperabilidad en la Regulación de la IA: Caminos hacia un Futuro Sostenible

A medida que nos encontramos en una encrucijada crítica en el desarrollo de la IA, surge un desafío de gobernanza que podría sofocar la innovación y crear divisiones digitales globales. La actual...