La vigilancia de IA y el vacío de gobernanza en la región Asia-Pacífico
La introducción de la Ley de Inteligencia Artificial (IA) de la UE establece un marco de regulación basado en riesgos para los sistemas de IA en varios sectores. Este marco incluye límites ejecutables sobre la vigilancia biométrica, destacando una prohibición casi total de reconocimiento facial en tiempo real en espacios públicos. Sin embargo, mientras Europa avanza en la implementación de estas regulaciones, China está exportando silenciosamente la infraestructura de control digital por toda la región Asia-Pacífico.
La región está experimentando una rápida expansión de poderosas tecnologías de vigilancia, pero carece de los marcos de gobernanza necesarios para regular su uso. China se ha convertido en el principal exportador mundial de tecnología de vigilancia potenciada por IA, con empresas como Huawei, Hikvision y ZTE profundamente integradas en proyectos de ciudades seguras y ciudades inteligentes en el sudeste asiático, Asia central, África y Medio Oriente.
Las tecnologías duales de vigilancia
Las tecnologías de vigilancia impulsadas por IA, especialmente el reconocimiento facial, son un ejemplo clásico de tecnologías de uso dual. Mientras que en la UE estas capacidades están sujetas a restricciones legales, la región Asia-Pacífico carece de reglas integrales que rijan su despliegue en espacios públicos. Aunque democracias como Japón, Corea del Sur y Australia están comenzando a explorar la ética de IA y la clasificación de riesgos, estos esfuerzos están en etapas tempranas.
A medida que la infraestructura de vigilancia se expande rápidamente en gran parte del sudeste asiático, las asociaciones con empresas tecnológicas chinas están proliferando en entornos donde los controles institucionales son débiles y la transparencia es escasa.
El impacto de la vigilancia en los derechos humanos
El uso del reconocimiento facial no solo mejora la seguridad, sino que también permite la monitorización de protestas, la intimidación de disidentes y la represión de la oposición. Un ejemplo claro de esto es el uso de la vigilancia masiva en Xinjiang, donde el estado ha construido uno de los regímenes de vigilancia más extensos del mundo para monitorear y reprimir a la minoría uyghur.
Una vez que estos sistemas de vigilancia están operativos, transforman las prácticas institucionales y normalizan la monitorización constante. La Ley de IA de la UE ha avanzado en la protección contra el uso indebido de la vigilancia de IA, estructurándose como un marco basado en riesgos que incorpora salvaguardias centradas en los derechos.
Desafíos en la gobernanza de la vigilancia en Asia-Pacífico
A pesar de sus esfuerzos por regular la IA, la influencia de la Ley de la UE se limita a su jurisdicción, especialmente en estados que no forman parte de regímenes de control de exportaciones multilaterales. Esto ha resultado en un paisaje global fragmentado donde los regímenes represivos pueden buscar herramientas de vigilancia sin enfrentar cuestionamientos.
La falta de gobernanza en esta área no es accidental. Refleja una asimetría más profunda: mientras Europa establece normas para la IA, China está construyendo sistemas de vigilancia de IA. La participación de Huawei en la construcción de redes de vigilancia en Serbia, Kenya, Pakistán y Laos es un claro ejemplo de cómo estos sistemas están integrados en la infraestructura de las ciudades inteligentes.
La necesidad de un diálogo regional
La Asia-Pacífico está particularmente expuesta; muchos de los sistemas políticos de la región son semi-autoritarios o híbridos, donde las herramientas de vigilancia pueden ser utilizadas con poca supervisión pública. Hay una necesidad urgente de diálogo y coordinación regional sobre la gobernanza de la vigilancia de IA.
Los estados democráticos de la región, incluyendo Japón, Corea del Sur y Australia, tienen tanto la capacidad como la credibilidad para liderar esfuerzos en este ámbito. Sin embargo, el riesgo es que las normas se establezcan en otros lugares, no a través de la regulación o la supervisión pública, sino mediante sistemas técnicos, configuraciones de software y contratos de adquisición.
Si la región Asia-Pacífico no comienza a definir qué aspecto tiene una vigilancia de IA aceptable en sus propios términos, pronto encontrará que esos términos ya han sido decididos.