Anthropic vs el Pentágono: un concurso definitorio sobre quién establece las reglas para la IA
Hay una cita popularmente atribuida al revolucionario ruso Vladimir Lenin que dice que hay décadas en las que no sucede nada; y hay semanas en las que suceden décadas. Esta ha sido una de esas semanas.
En el contexto del conflicto en Irán y las tensiones crecientes entre la administración actual y sus aliados europeos tradicionales, no sería sorprendente que se te haya pasado por alto la noticia de que el Pentágono designó a la gigante de IA Anthropic como un «riesgo para la cadena de suministro». Aunque esta decisión viene con un período de gracia de seis meses, efectivamente prohíbe a cualquier agencia federal y a cualquier empresa que haga negocios con el ejército de los EE. UU. utilizar la tecnología de Anthropic como parte de cualquier trabajo con el Departamento de Guerra.
A pesar de que la decisión del Pentágono fue una consecuencia natural de semanas de posicionamiento público después de llegar a un punto muerto con Anthropic, la importancia de la decisión y lo que significa para el futuro de la regulación de la IA no debe subestimarse.
¿Cómo llegamos aquí?
En julio de 2025, el Pentágono otorgó acuerdos de un techo de $200 millones a cuatro empresas de IA «fronterizas», siendo Claude de Anthropic el primer modelo aprobado para su uso en redes clasificadas. Esa luna de miel terminó cuando el Departamento presionó por un estándar de «todos los propósitos legales», reemplazando efectivamente las salvaguardias de la empresa con políticas gubernamentales. El CEO de Anthropic dejó en claro que sus dos líneas rojas eran el uso de Claude para la vigilancia masiva de ciudadanos estadounidenses y en el despliegue de armas totalmente autónomas, capaces de actuar sin intervención humana. Tras la falta de avances de ambas partes, se tomó la decisión de designar a Anthropic como un riesgo para la cadena de suministro.
Reacciones y beneficiarios
No debe subestimarse lo personal que se ha vuelto todo este asunto. Al anunciar la decisión, se atacó a la empresa describiéndola como «radical de izquierda» y se amenazó con consecuencias civiles y penales importantes. Mientras tanto, un alto funcionario del Departamento de Guerra criticó a Anthropic por su «maestría en la arrogancia y la traición», acusando a la empresa de intentar controlar el proceso de toma de decisiones del ejército de los EE. UU.
El principal beneficiario de todo esto ha sido otra compañía de IA, que no tuvo reparos en sus líneas rojas y firmó gustosamente el acuerdo de $200 millones con el Departamento de Guerra. Este ejecutivo había sido colega del CEO de Anthropic y ahora es competidor, habiendo dejado la empresa tras una serie de desacuerdos, incluida la seguridad de la IA.
Implicaciones para el futuro de la IA
En el corazón de esta saga está la pregunta fundamental de quién establece los términos de uso para la IA. Por un lado, los gobiernos tienen la responsabilidad democrática de tomar decisiones que consideren en el interés nacional, incluida la utilización de tecnologías emergentes. Por otro lado, nadie conoce esta tecnología mejor que las grandes empresas de tecnología, que comprenden lo que puede y no puede hacer. Es imposible separar la actual carrera hacia la superinteligencia de IA de las tensiones geopolíticas más amplias entre los EE. UU. y China, en lo que probablemente será la carrera armamentista que dará forma a la próxima fase del siglo XXI. El arte de la política y la regulación es lento y deliberado por diseño, y no podría contrastar más con el ritmo del desarrollo de la IA.
Conclusión
Claude continúa siendo utilizado por el ejército en sus operaciones en el Medio Oriente y, dependiendo de la duración del conflicto, esto podría requerir un retroceso de esa ventana de seis meses antes de que la designación de riesgo para la cadena de suministro de Anthropic se implemente completamente. Desde una perspectiva comercial y de relaciones públicas, Anthropic parece estar recuperándose bien y ha visto un aumento en la popularidad pública, con Claude superando a otros competidores en las tiendas de aplicaciones. Esta es una historia sobre personalidades, principios y líneas rojas. En la era de la IA, el gobierno y los negocios deberán trabajar juntos cada vez más para navegar por estos desafíos, o de lo contrario, arriesgamos ver muchos más casos como este en los años venideros.