El conflicto Pentagon-Anthropic y sus implicaciones en la gobernanza de la IA militar

Comentario Experto: La disputa entre el Pentágono y Anthropic refleja fallas de gobernanza – con consecuencias que se extienden más allá de Washington

El 4 de marzo, el Pentágono notificó formalmente a Anthropic que había sido considerado un riesgo para la cadena de suministro de la seguridad nacional, un movimiento sin precedentes contra una empresa estadounidense.

La designación siguió a la negativa de Anthropic de aceptar un lenguaje contractual que permitiera el uso de su tecnología para «todos los fines legales», con el CEO insistiendo en mantener dos líneas rojas que prohíben la vigilancia masiva en el país y los sistemas de armas totalmente autónomos. Después de intensas negociaciones, se anunció que el Departamento de Defensa (DoD) se alejaría de los productos de Anthropic en un plazo de seis meses, a pesar de que surgieron informes de que el Pentágono estaba confiando extensamente en el modelo Claude de Anthropic en su guerra en curso con Irán.

Ética frente a Seguridad Nacional

La disputa ha sido ampliamente caracterizada como un choque entre ética y seguridad nacional. En realidad, apunta a desafíos estructurales más profundos. La disputa revela brechas de gobernanza de larga data en la integración de la inteligencia artificial (IA) en operaciones militares y de inteligencia, brechas que preceden a esta administración y que perdurarán más allá de la controversia actual. En ausencia de marcos institucionales claros, empresas privadas como Anthropic han intentado imponer límites a través de políticas de uso que definen cómo se pueden desplegar sus modelos. La disputa subraya las deficiencias de ese enfoque. Los mecanismos contractuales no son un sustituto de los marcos de gobernanza capaces de mantenerse al día con las realidades operativas de la guerra habilitada por IA.

El mecanismo invocado por el Secretario Hegseth es un estatuto de seguridad de la cadena de suministro diseñado para abordar amenazas extranjeras a la integridad de los sistemas de defensa. Se ha aplicado históricamente a proveedores vinculados a adversarios, por lo que su aplicación a una empresa estadounidense representa un cambio notable con respecto a las prácticas anteriores. La base probatoria para tratar un desacuerdo contractual sobre términos de uso como equivalente a un compromiso o sabotaje extranjero aún no se ha establecido públicamente.

Cambios en la Estrategia de IA del Pentágono

La administración anterior aceptó originalmente las restricciones de uso de Anthropic cuando se adjudicó un contrato de 200 millones de dólares en julio de 2025. Sin embargo, el memorando de la Estrategia de Inteligencia Artificial del Pentágono de enero de 2026 cambió la forma en que el DoD trabaja con los contratistas al dirigir al Departamento a incorporar una cláusula estándar de «cualquier uso legal» en todos los contratos dentro de los 180 días. Este memorando representa un impulso más amplio dentro del Departamento para enfocarse en «acelerar el dominio militar de la IA de Estados Unidos» para superar a China, incluso si se establecen salvaguardias.

Aún así, otras opciones políticas estaban disponibles para la administración en su disputa con Anthropic, incluida la terminación del contrato o la re-solicitud competitiva. En cambio, el Pentágono invocó una designación de cadena de suministro de seguridad nacional mientras finalizaba un acuerdo con el competidor de Anthropic.

Implicaciones Internacionales y Desafíos Estructurales

El problema más fundamental que resalta la disputa es estructural. La legislación existente deja brechas significativas en la gobernanza de la vigilancia doméstica habilitada por IA y los sistemas de armas autónomas. La directiva del DoD de enero de 2023, que requiere que los sistemas autónomos letales se sometan a pruebas rigurosas antes de su despliegue, existe como política interna en lugar de como estatuto. Actualizar tales directivas generalmente implica un largo proceso que no está diseñado para mantenerse al día con las capacidades tecnológicas que avanzan rápidamente.

Los gobiernos aliados ahora están enfrentando las implicaciones de la disputa. La designación de Anthropic como un riesgo para la cadena de suministro puede crear desafíos legales, operativos y financieros para los socios que han integrado modelos de Anthropic en plataformas compartidas y programas conjuntos, planteando preguntas sobre el estado legal del uso continuo y quién asume los costos de remediación.

Conclusión

La disputa entre el Pentágono y Anthropic ha puesto de manifiesto la brecha de gobernanza que rodea a la IA militar, lo que hace imposible ignorarla. Los responsables de políticas en Estados Unidos y en países aliados deben determinar cómo se abordará esta situación en el futuro.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...