Navegando la nueva realidad de la política internacional de IA
Desde principios de 2025, la dirección estratégica de la política de inteligencia artificial (IA) ha cambiado drásticamente, enfocándose en la capacidad de los estados-nación para «ganar la carrera global de IA» al priorizar el liderazgo tecnológico y la innovación nacional. Este artículo explora el futuro de la política internacional de IA y si existe un deseo de trabajar de manera significativa para abordar los riesgos de la IA mediante pruebas y evaluaciones.
A medida que India se prepara para albergar la próxima Cumbre de Impacto de IA en Nueva Delhi en febrero, hay una oportunidad para que los gobiernos nacionales avancen en las discusiones sobre confianza y evaluaciones, incluso en medio de tensiones en la conversación política entre garantizar la seguridad de la IA y promover su adopción.
París: La revolución de la adopción de IA comienza
El impulso inicial hacia políticas centradas en garantizar la seguridad de la IA y su potencial para plantear riesgos existenciales para la humanidad comenzó en la primera Cumbre de Seguridad de IA celebrada en Bletchley Park en 2023. Esta discusión se avanzó en cumbres internacionales subsecuentes en Seúl y San Francisco en 2024. Sin embargo, la primera Cumbre de Acción de IA en París a principios de este año mostró una pérdida de impulso en estas discusiones.
En la cumbre, el presidente francés Emmanuel Macron declaró que «ahora es un tiempo para la innovación y la aceleración» en IA, mientras que el vicepresidente estadounidense JD Vance afirmó que «el futuro de la IA no se ganará lamentándose por la seguridad». A medida que la cumbre concluyó, Estados Unidos y el Reino Unido optaron por no unirse a otros países en la firma de la Declaración sobre IA Inclusiva y Sostenible para las Personas y el Planeta.
Mandatos de inversión y adopción de IA
Estados Unidos ha tomado varias medidas en esta nueva dirección. La administración de Trump derogó varias acciones ejecutivas de la era de Biden sobre IA. En febrero, la administración emitió una solicitud de información para desarrollar un nuevo «Plan de Acción de IA», en virtud de una orden ejecutiva firmada en enero llamada «Eliminación de Barreras para el Liderazgo Americano en IA».
Simultáneamente, ha surgido un debate sobre si el gobierno federal debería prevenir la legislación de IA a nivel estatal que imponga regulaciones a la industria. Sin embargo, las propuestas a nivel estatal sobre la gestión de riesgos de IA y la gobernanza se han estancado.
Adaptándose a este cambio en la política global de IA
A pesar del cambio marcado en el tono de las discusiones sobre la política de IA, aún podrían existir oportunidades para avanzar en las conversaciones sobre confianza y seguridad de la IA. Las empresas anhelan certeza, y la confianza sigue siendo fundamental para crear un ecosistema que apoye la adopción.
La próxima Cumbre de Impacto de IA en Nueva Delhi presenta una oportunidad para continuar las conversaciones sobre cómo crear un ecosistema robusto de pruebas y evaluaciones de IA que impulse la innovación y fomente la confianza.
Conclusión
El mundo no debe perder las ganancias ya logradas por investigadores, formuladores de políticas y empresas que han estado trabajando para abordar los riesgos de la IA en los últimos años al enfocarse únicamente en la adopción. Las respuestas necesarias para abordar los desafíos y riesgos asociados con la IA están entrelazadas con la capacidad de capitalizar las oportunidades que presenta la IA y garantizar la responsabilidad y seguridad de estas tecnologías en los años venideros.