Grok está dentro, la ética queda fuera en la nueva estrategia de aceleración de IA del Pentágono
La tercera estrategia de aceleración de IA del Pentágono en cuatro años establece siete «proyectos de referencia» que «desbloquearán habilitadores fundamentales críticos» para otros esfuerzos militares de EE. UU., según anunció el departamento recientemente.
El documento de seis páginas también dirige a los diversos componentes del departamento a cumplir con un objetivo de cuatro años para hacer que sus datos estén disponibles de manera central para el entrenamiento y análisis de IA. Omite cualquier mención sobre el uso ético de la IA y genera sospechas sobre el concepto de responsabilidad en IA, mientras prohíbe el uso de modelos que incorporen «ajustes ideológicos» relacionados con la diversidad, equidad e inclusión (DEI).
Proyectos clave y objetivos
El secretario anunció que las redes del Pentágono, incluidas las clasificadas, permitirían el acceso a Grok, un chatbot de IA de propiedad de Elon Musk, conocido por su inclinación partidista y su disposición a crear imágenes sexualmente explícitas de niños.
En algunos aspectos clave, la nueva estrategia tiene mucho en común con su predecesora de 2023, que también enfatizaba la rápida adopción de modelos de IA comercialmente disponibles en todo el ejército. Sin embargo, la nueva estrategia ofrece caminos mucho más específicos para esa adopción en diversas actividades militares.
Un proyecto denominado «Swarm Forge» buscará «descubrir, probar y escalar» nuevas maneras de utilizar la IA en combate. Otro proyecto tiene como objetivo incorporar rápidamente IA agentiva para «gestión de batalla habilitada y soporte de decisiones, desde la planificación de campañas hasta la ejecución de cadenas de ataque». Otro se centrará en promover la IA en la planificación de escenarios.
Un proyecto relacionado con la inteligencia busca «convertir inteligencia en armas en horas, no en años»; otro pretende hacer que la planificación de posturas sea más «dinámica». También se busca hacer herramientas de IA — incluyendo Grok y Gemini de Google — disponibles para el personal del departamento en niveles de clasificación «Información Nivel (IL-5) y superiores».
Implicaciones y riesgos
Quizás lo más significativo es que la nueva estrategia establece un mandato para eliminar «bloqueadores» para el intercambio de datos dentro del departamento y establecer sistemas de arquitectura abierta, un movimiento generalmente visto como favorable para las startups y la innovación más rápida.
Entre estas están «IA responsable», consideraciones éticas y DEI. Bajo una sección titulada «Aclarando ‘IA Responsable’ en el [Departamento de Guerra] – Fuera del Idealismo Utópico, Dentro del Realismo Pragmático», la estrategia declara: «La diversidad, equidad e inclusión y la ideología social no tienen lugar en el DoW, por lo que no debemos emplear modelos de IA que incorporen ‘ajustes ideológicos’ que interfieran con su capacidad para proporcionar respuestas objetivamente veraces a las consultas de los usuarios.»
La estrategia también requiere que el subsecretario de defensa para investigación e ingeniería «incorpore un lenguaje de ‘cualquier uso legal’ en cualquier contrato del DoW a través del cual se adquieran servicios de IA dentro de 180 días», lo que significa que cualquier uso de IA solo necesita cumplir con el estándar legal que el departamento utiliza para la fuerza en general, humana o no, en lugar de un estándar más alto que exige «control humano significativo» para el uso de la autonomía en la guerra.
Sin embargo, la estrategia no rescinde explícitamente la preferencia de larga data por un control humano significativo, lo que podría generar confusión a medida que diferentes comandantes interpreten el significado de «significativo» y «control» de maneras diferentes, o potencialmente elijan ignorarlo.
Es exactamente el tipo de discrepancia que los principios de ética en IA del departamento, que están notablemente ausentes, están destinados a abordar. La estrategia también falla en reconocer el creciente coro de legisladores que expresan preocupación por la capacidad de la administración para entender o seguir la ley, ya sea atacando barcos desarmados o tomando acciones letales contra civiles en las calles de EE. UU.
Conclusión
El Pentágono lanza esta estrategia en un momento en que Rusia y China están acelerando su propia adopción de IA, pero también cuando la confianza pública en la IA está colapsando en todo el espectro político de EE. UU. Además, llega en un momento en que muchos aliados europeos se alejan de las empresas tecnológicas de EE. UU. debido a la agresión de la administración hacia las democracias.