Gobernanza Global del Nexo IA-Nuclear: Desglosando la Resolución 80/23 de la AGNU
Aspectos Clave
La Asamblea General de las Naciones Unidas adoptó la resolución 80/23 en diciembre de 2025, que aborda los riesgos derivados de la integración de la inteligencia artificial (IA) en los sistemas de mando, control y comunicaciones nucleares (NC3).
Como era de esperar, todos los estados con armas nucleares se abstuvieron o se opusieron a la resolución, lo que refuerza las preocupaciones sobre la regulación del uso de armas nucleares.
A pesar de esto, la resolución 80/23 ha establecido una plataforma clave para el diálogo multilateral sobre el papel de los humanos en el control y supervisión de los sistemas NC3 donde se está integrando la IA.
Comentario
El 1 de diciembre de 2025, la AGNU aprobó la resolución 80/23, presentada por su Primer Comité sobre Desarme y Seguridad Internacional, en relación con los posibles riesgos de la integración de la IA en los sistemas NC3. Un total de 118 estados votaron a favor, 9 en contra y 44 se abstuvieron. Entre los 9 estados que votaron en contra estaban Francia, Israel, Corea del Norte, Rusia, el Reino Unido y los Estados Unidos. China, India y Pakistán fueron algunos de los estados que se abstuvieron.
Estos patrones de votación son significativos: todos los estados con armas nucleares votaron en contra o se abstuvieron. Al mismo tiempo, los estados sin armas nucleares han continuado esforzándose por dar forma a las reglas y normas en torno al uso de armas nucleares. Esto es importante en un entorno donde los arsenales nucleares continúan creciendo y los tratados de control de armas firmados en una era diferente de relaciones internacionales se han erosionado.
Aunque la resolución 80/23 no es vinculante legalmente, es un paso significativo hacia la gobernanza global del nexo IA-nuclear. Al colocar el tema de los riesgos derivados de la integración de la IA en los sistemas NC3 en la agenda de la AGNU, ahora existen algunas expectativas normativas respecto a la conducta responsable en un ámbito tradicionalmente opaco y sensible estratégicamente.
Riesgos de la Integración de la IA en los NC3
Los sistemas NC3 describen sistemas interconectados responsables de supervisar las operaciones de armas nucleares, incluyendo sistemas para la conciencia situacional, planificación, toma de decisiones, gestión de fuerzas y ejecución de comandos. En el contexto de NC3, la IA se refiere a sistemas entrenados en grandes conjuntos de datos, lo que permite salidas predictivas o generativas.
La integración de la IA en los sistemas NC3 plantea riesgos que requieren atención urgente para preservar la estabilidad estratégica. El preámbulo de la resolución 80/23 destaca la preocupación de que la toma de decisiones habilitada por IA en los sistemas NC3 «podría reducir el control y la supervisión humana, aumentando la posibilidad de distorsiones inducidas en los entornos de toma de decisiones y acortando los plazos de acción y respuesta».
Dado que los sistemas NC3 operan en entornos altamente sensibles, hay una cantidad limitada de datos de entrenamiento y puntos de referencia para evaluar la precisión y efectividad de las salidas de los modelos de IA integrados en tales sistemas. Incluso si un sistema NC3 habilitado por IA funciona bien en escenarios simulados, podría tener dificultades durante operaciones reales, dejando espacio para falsos positivos, alucinaciones o clasificaciones erróneas que podrían tener consecuencias existenciales.
Más allá de la escasez de datos, los sistemas NC3 habilitados por IA también son vulnerables a manipulaciones adversariales. La contaminación de los datos de entrenamiento podría distorsionar el comportamiento de un sistema, por ejemplo, haciéndolo ignorar amenazas específicas. La manipulación adversarial es a menudo sutil y podría permanecer indetectada hasta que surja una crisis. Dado que los sistemas NC3 están diseñados para ser aislados y opacos, verificar la integridad de la IA integrada en estos sistemas es crítico para mantener la confianza en su rendimiento.
La capacidad de la IA para generar rápidamente salidas también reduce la ventana de acción y respuesta, minimizando potencialmente el papel de la deliberación humana y la desescalada diplomática en la toma de decisiones sobre armas nucleares. Además, dado que las recomendaciones de un modelo de IA pueden parecer más objetivas que las evaluaciones humanas, los operadores del sistema corren el riesgo de depender en exceso de estas recomendaciones bajo presión.
Desglosando la Resolución y Patrones de Votación
El primer párrafo operativo de la resolución 80/23 exige que se mantenga el control y la supervisión humanos sobre los sistemas NC3, incluyendo aquellos donde se ha integrado IA. Además, insta a los estados con armas nucleares a publicar políticas nacionales que afirmen explícitamente este principio. También se enfatiza la necesidad de desarrollar un entendimiento común y medidas de fomento de la confianza dentro del contexto y mandato de las plataformas de desarme existentes.
Finalmente, la resolución ha incluido el tema de los riesgos derivados de la integración de la IA con los sistemas NC3 en la agenda del Primer Comité de la AGNU para su próxima 81ª sesión en 2026.
En la superficie, el patrón de votación de la resolución 80/23 refleja divisiones familiares entre estados con armas nucleares y estados sin armas nucleares. Los cinco estados con armas nucleares reconocidos por el Tratado de No Proliferación Nuclear, junto con India, Israel, Corea del Norte y Pakistán, se abstuvieron o se opusieron a la resolución.
El hecho de que cuatro de los cinco estados con armas nucleares reconocidos por el TNP se opusieran a la resolución 80/23 sugiere que incluso las resoluciones no vinculantes tienen el potencial de establecer expectativas normativas, que los estados con armas nucleares querían proteger. Rusia se opuso a la resolución argumentando que era prematuro discutir el tema en la AGNU sin que primero se discutiera entre los estados con armas nucleares. Al mismo tiempo, Francia, el Reino Unido y los Estados Unidos afirmaron que no podían apoyar la resolución ya que su texto no reflejaba los beneficios potenciales de la IA para los sistemas NC3.
Aunque China se abstuvo en lugar de votar en contra de la resolución, su razonamiento fue similar al de los otros estados con armas nucleares. Al igual que China, India y Pakistán también se abstuvieron. Pakistán argumentó que la resolución no capturaba el rango completo de riesgos derivados de la intersección IA-nuclear más allá de los sistemas NC3.
Desarrollando Reglas y Normas sobre la Integración de la IA en los NC3
La adopción de la resolución 80/23 por la AGNU marca un momento significativo en la gobernanza global del nexo IA-nuclear. En lugar de intentar imponer restricciones directas a los estados con armas nucleares, la resolución se ha centrado en institucionalizar el diálogo multilateral sobre los riesgos derivados de la integración de la IA en los sistemas NC3. Esto permite la creación de una plataforma inclusiva a través de la cual se pueden desarrollar gradualmente normas y medidas de fomento de la confianza.
Además, al centrar la discusión en el control y la supervisión humanos, la resolución 80/23 presenta una referencia normativa para futuras discusiones multilaterales, incluso si no es legalmente vinculante. Esto es particularmente significativo dado que los estados con armas nucleares han sido consistentemente reacios a divulgar cualquier detalle sobre los sistemas NC3.
De cara al futuro, el principal desafío será cómo implementar prácticamente el control y la supervisión humanos en el diseño y operación de los sistemas NC3. Quedan muchas preguntas por considerar, como cómo debe definirse el control humano, qué califica como supervisión y cómo se puede garantizar la responsabilidad cuando la transparencia es un desafío. Abordar estas cuestiones requerirá un diálogo multilateral sostenido, para el cual la resolución 80/23 ha creado ahora el primer paso.