Cómo los líderes de IA en China establecieron un instituto de seguridad para la inteligencia artificial

Cómo algunos de los principales pensadores de IA de China construyeron su propio Instituto de Seguridad de IA

Desde el lanzamiento del modelo de razonamiento de código abierto DeepSeek-R1 en enero de 2025, China ha priorizado cada vez más la utilización de la inteligencia artificial (IA) como un motor clave para el crecimiento económico. Este enfoque también ha conllevado a una creciente preocupación por los riesgos catastróficos que pueden surgir de la IA avanzada y la necesidad de coordinación internacional.

¿Qué es CnAISDA?

La Asociación de Seguridad y Desarrollo de IA de China (CnAISDA) se estableció como una respuesta a la creciente conversación sobre la seguridad de la IA en el contexto internacional. Su función principal es representar a China en conversaciones internacionales sobre IA, destacando su disposición para abordar los problemas de la IA avanzada fuera del ámbito tradicional de la Organización de las Naciones Unidas. Sin embargo, a diferencia de los institutos de seguridad de IA en el Reino Unido y Estados Unidos, CnAISDA no parece estar estructurada para realizar funciones sustanciales a nivel nacional, como la evaluación independiente de modelos de IA.

Estructura de CnAISDA

La estructura de CnAISDA se basa en una red de instituciones existentes enfocadas en la IA en China, integrando universidades prestigiosas como la Universidad de Tsinghua, centros de investigación respaldados por el gobierno como la Academia de Inteligencia Artificial de Pekín (BAAI) y grupos de investigación dentro del Ministerio de Industria y Tecnología de la Información (MIIT). Esta coalición permite a China evitar la designación de una única entidad como líder en el ecosistema de seguridad de IA, brindando mayor flexibilidad política.

Cómo surgió CnAISDA

La formación de CnAISDA es el resultado de años de posicionamiento estratégico por parte de importantes emprendedores políticos dentro del ecosistema de gobernanza de IA de China. Esta organización representa un esfuerzo conjunto para participar en conversaciones globales sobre los riesgos de la IA avanzada, mientras se enmarca dentro de las prioridades políticas nacionales.

Desafíos y oportunidades

A pesar de su potencial, CnAISDA enfrenta desafíos significativos. La participación con Estados Unidos podría ser complicada debido a la incertidumbre sobre la dirección de su propio Instituto de Seguridad de IA, así como la actual administración estadounidense, que se centra más en las oportunidades que en las preocupaciones de seguridad.

Sin embargo, la creación de CnAISDA representa una victoria importante para aquellos que han advertido sobre los riesgos catastróficos de la IA. A medida que las capacidades de IA avanzan rápidamente, es crucial para los actores internacionales comprender el ecosistema de seguridad de IA de China.

Implicaciones estratégicas y futuras

La aparición de CnAISDA marca un momento crucial en la gobernanza de la IA en China y en el paisaje de coordinación global. Su diseño institucional, enfocado internacionalmente y con una estructura de red, refleja los esfuerzos de China por equilibrar las oportunidades internacionales con las realidades políticas internas. Esto le permite participar de manera significativa en conversaciones globales sobre la seguridad de la IA, al tiempo que preserva la flexibilidad regulatoria en el ámbito interno.

En conclusión, el establecimiento de CnAISDA ilumina un camino crítico para la coordinación global: cuando las ideas técnicas sobre la seguridad de la IA se complementan con los intereses nacionales, pueden trascender las barreras geopolíticas. Para los interesados internacionales que buscan involucrarse con China en la seguridad de la IA, es posible que sea más productivo centrarse en crear condiciones donde las preocupaciones técnicas compartidas se incorporen de manera independiente en el enfoque de gobernanza doméstica de China.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...