Comentario Experto: La disputa entre el Pentágono y Anthropic refleja fallas de gobernanza – con consecuencias que se extienden más allá de Washington
El 4 de marzo, el Pentágono notificó formalmente a Anthropic que había sido considerado un riesgo para la cadena de suministro de la seguridad nacional, un movimiento sin precedentes contra una empresa estadounidense.
La designación siguió a la negativa de Anthropic de aceptar un lenguaje contractual que permitiera el uso de su tecnología para «todos los fines legales», con el CEO insistiendo en mantener dos líneas rojas que prohíben la vigilancia masiva en el país y los sistemas de armas totalmente autónomos. Después de intensas negociaciones, se anunció que el Departamento de Defensa (DoD) se alejaría de los productos de Anthropic en un plazo de seis meses, a pesar de que surgieron informes de que el Pentágono estaba confiando extensamente en el modelo Claude de Anthropic en su guerra en curso con Irán.
Ética frente a Seguridad Nacional
La disputa ha sido ampliamente caracterizada como un choque entre ética y seguridad nacional. En realidad, apunta a desafíos estructurales más profundos. La disputa revela brechas de gobernanza de larga data en la integración de la inteligencia artificial (IA) en operaciones militares y de inteligencia, brechas que preceden a esta administración y que perdurarán más allá de la controversia actual. En ausencia de marcos institucionales claros, empresas privadas como Anthropic han intentado imponer límites a través de políticas de uso que definen cómo se pueden desplegar sus modelos. La disputa subraya las deficiencias de ese enfoque. Los mecanismos contractuales no son un sustituto de los marcos de gobernanza capaces de mantenerse al día con las realidades operativas de la guerra habilitada por IA.
El mecanismo invocado por el Secretario Hegseth es un estatuto de seguridad de la cadena de suministro diseñado para abordar amenazas extranjeras a la integridad de los sistemas de defensa. Se ha aplicado históricamente a proveedores vinculados a adversarios, por lo que su aplicación a una empresa estadounidense representa un cambio notable con respecto a las prácticas anteriores. La base probatoria para tratar un desacuerdo contractual sobre términos de uso como equivalente a un compromiso o sabotaje extranjero aún no se ha establecido públicamente.
Cambios en la Estrategia de IA del Pentágono
La administración anterior aceptó originalmente las restricciones de uso de Anthropic cuando se adjudicó un contrato de 200 millones de dólares en julio de 2025. Sin embargo, el memorando de la Estrategia de Inteligencia Artificial del Pentágono de enero de 2026 cambió la forma en que el DoD trabaja con los contratistas al dirigir al Departamento a incorporar una cláusula estándar de «cualquier uso legal» en todos los contratos dentro de los 180 días. Este memorando representa un impulso más amplio dentro del Departamento para enfocarse en «acelerar el dominio militar de la IA de Estados Unidos» para superar a China, incluso si se establecen salvaguardias.
Aún así, otras opciones políticas estaban disponibles para la administración en su disputa con Anthropic, incluida la terminación del contrato o la re-solicitud competitiva. En cambio, el Pentágono invocó una designación de cadena de suministro de seguridad nacional mientras finalizaba un acuerdo con el competidor de Anthropic.
Implicaciones Internacionales y Desafíos Estructurales
El problema más fundamental que resalta la disputa es estructural. La legislación existente deja brechas significativas en la gobernanza de la vigilancia doméstica habilitada por IA y los sistemas de armas autónomas. La directiva del DoD de enero de 2023, que requiere que los sistemas autónomos letales se sometan a pruebas rigurosas antes de su despliegue, existe como política interna en lugar de como estatuto. Actualizar tales directivas generalmente implica un largo proceso que no está diseñado para mantenerse al día con las capacidades tecnológicas que avanzan rápidamente.
Los gobiernos aliados ahora están enfrentando las implicaciones de la disputa. La designación de Anthropic como un riesgo para la cadena de suministro puede crear desafíos legales, operativos y financieros para los socios que han integrado modelos de Anthropic en plataformas compartidas y programas conjuntos, planteando preguntas sobre el estado legal del uso continuo y quién asume los costos de remediación.
Conclusión
La disputa entre el Pentágono y Anthropic ha puesto de manifiesto la brecha de gobernanza que rodea a la IA militar, lo que hace imposible ignorarla. Los responsables de políticas en Estados Unidos y en países aliados deben determinar cómo se abordará esta situación en el futuro.