Choque de Poder: La Lucha entre la Seguridad Tecnológica y el Gobierno

De Clipper Chips a Claude: Una Historia del Poder del Gobierno vs. la Seguridad Tecnológica

Este es el primero de varios artículos que examinan el enfrentamiento entre el Pentágono y Anthropic y sus implicaciones para la gobernanza de la inteligencia artificial.

El 24 de febrero, el Secretario del Departamento de Guerra dio a Anthropic un ultimátum de 72 horas: eliminar las salvaguardias de seguridad de Claude para su uso militar, o perder un contrato de 200 millones de dólares y enfrentar la designación como un riesgo para la cadena de suministro de la seguridad nacional. Anthropic se negó. Tres días después, el Secretario cumplió con la amenaza.

El Chip Clipper (1993–1996)

En 1993, la administración Clinton propuso el Clipper Chip: un módulo de cifrado diseñado por el gobierno que debía instalarse en todos los equipos de telecomunicaciones, con un sistema de «escrow» que daría acceso trasero a las comunicaciones cifradas a las agencias federales. La NSA desarrolló el algoritmo subyacente. El propósito declarado era prevenir que criminales y adversarios extranjeros se ocultaran detrás de un cifrado irrompible.

La industria tecnológica y las organizaciones de derechos civiles llevaron a cabo una campaña sostenida en contra de esta propuesta. El argumento central era estructural: una puerta trasera obligatoria diseñada para la aplicación de la ley es una puerta trasera disponible para cualquiera que la descubra. Debilitar la arquitectura de seguridad para un propósito la debilita para todos los propósitos. Un investigador de AT&T demostró una falla criptográfica fundamental en el mecanismo de escrow en 1994, y para 1996 la iniciativa estaba efectivamente muerta.

Apple vs. el FBI (2016)

Veinte años después, el mismo argumento estructural resurgió. Después del tiroteo de San Bernardino en 2015, el FBI obtuvo una orden judicial que obligaba a Apple a construir un sistema operativo personalizado que eludiría las protecciones de cifrado del iPhone. Apple se negó. El CEO argumentó que crear una herramienta de puerta trasera, incluso para un solo dispositivo, establecería un precedente peligroso. En última instancia, el FBI compró una herramienta de explotación de terceros y abandonó el caso.

La cuestión legal sobre si la ley autoriza compelir a una empresa a modificar el diseño de seguridad de su propio producto nunca fue resuelta. Sin embargo, el episodio confirmó que la autoridad de compulsión del gobierno sobre el diseño de seguridad del producto tiene límites prácticos, incluso en contextos de seguridad nacional.

Google y el Proyecto Maven (2018)

La historia específica de la IA comienza con el Proyecto Maven, un programa del Pentágono que utiliza aprendizaje automático para analizar imágenes de vigilancia de drones. Google ganó un contrato para proporcionar tecnología de reconocimiento de imágenes. Cuando los empleados se enteraron de la naturaleza del trabajo, miles firmaron una petición en contra de la participación de la empresa en sistemas de targeting letales. Google declinó renovar el contrato y publicó un conjunto de principios de IA que afirmaban que no construiría IA para armas o vigilancia que violara «normas aceptadas internacionalmente».

El Pentágono aprendió que la participación voluntaria de las empresas tecnológicas era frágil y que no podía basar su estrategia de IA en la cooperación que podría desvanecerse bajo presión interna.

La Licencia Grok-Pentágono (2025)

El precedente más reciente antes de Anthropic es también el más revelador. El Pentágono licenció Grok para aplicaciones militares en 2025. Este sistema había generado salidas problemáticas, incluyendo identificarse como «MechaHitler» y producir imágenes neonazis. El Pentágono no reconoció públicamente que su proceso de adquisición de IA había seleccionado un sistema con preocupaciones de gobernanza documentadas.

Esto plantea una pregunta: si el Pentágono licenció un sistema con fallas de seguridad documentadas y ahora exige que otro proveedor elimine controles de seguridad, ¿qué marco de gobernanza tiene realmente? Las posibilidades son preocupantes: o no hay marco, o el marco no identificó los problemas, o se identificaron y se adquirieron de todos modos.

Anthropic (2026): De la Persuasión a la Compulsión

El enfrentamiento con Anthropic representa un cambio cualitativo. Por primera vez, el gobierno ha pasado de la persuasión a la compulsión, invocando la Ley de Producción de Defensa y amenazando con una designación de riesgo para la cadena de suministro. La escalada es significativa. Después del Proyecto Maven, el Pentágono aprendió que la cooperación voluntaria era poco confiable.

El Patrón y Sus Lecciones

A lo largo de tres décadas, cada confrontación ha ampliado las herramientas de ambos lados. Las empresas tecnológicas han pasado de protestas internas a desafíos legales públicos. El gobierno ha pasado de propuestas regulatorias a órdenes judiciales y ahora a compulsiones ejecutivas. La brecha entre lo que quiere el establecimiento de defensa y lo que consideran seguro los desarrolladores ha crecido con cada iteración.

Las observaciones que surgen de este patrón son claras:

  1. Los argumentos sobre puertas traseras son recurrentes debido a que la lógica de ingeniería es duradera.
  2. Las preguntas legales no resueltas se acumulan.
  3. Los riesgos aumentan con la capacidad tecnológica.

En un futuro artículo, se examinará por qué la Ley de Producción de Defensa crea una paradoja en la política de IA del gobierno; no se puede obligar a innovar en controles de seguridad que se están demandando eliminar. También se explorará lo que las demandas del Pentágono significan para áreas donde la seguridad de la IA y el poder del gobierno pueden intersectarse directamente con la vida cotidiana.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...