Ética y Estrategia en la Era de la IA Militar

Historia recargada mientras la IA pone la ética en la línea de fuego

En cada era, la llegada de nuevas tecnologías militares ha obligado a los estados a reconsiderar un conjunto recurrente de preguntas morales y estratégicas. Los comandantes y legisladores siempre se han preguntado si una herramienta es legal y si su uso es sabio. La introducción del estribo, por ejemplo, alteró la guerra montada durante la Alta Edad Media porque permitió a los jinetes estabilizarse durante el impacto y transformó la caballería en una fuerza decisiva. La difusión de la pólvora cambió la conducción de los asedios, la formación de estados y la jerarquía del poder militar en Europa y Asia. La armadura mecanizada y la infantería motorizada obligaron a los gobiernos durante la década de 1930 a revisar el papel de la caballería, la logística y la movilización industrial. El radar, las primeras computadoras y los sistemas de comando y control nuclear crearon nuevos entornos de toma de decisiones durante la Segunda Guerra Mundial y la Guerra Fría.

En cada punto histórico, el debate ético entró más tarde, después de las demostraciones del potencial en el campo de batalla y después de que se hicieron evidentes las consecuencias estratégicas. Las sociedades que se abstuvieron de nuevas capacidades encontraron frecuentemente que otras potencias avanzaron, ganaron la iniciativa y reconfiguraron los términos en los que se desarrolla el conflicto. Los historiadores registran numerosos ejemplos en los que la abstención colocó a un lado en una desventaja política o militar.

El período de entreguerras demuestra este patrón con particular claridad. Estados Unidos adoptó una política exterior aislacionista durante las décadas de 1920 y 1930 y se retiró de la participación activa en la seguridad europea. Gran Bretaña y Francia redujeron el gasto militar y participaron en esfuerzos para restringir el poder naval y aéreo mediante marcos de tratados. La opinión pública fomentó una visión de que la restricción y los instrumentos diplomáticos evitarían otra crisis similar a la de 1914. Mientras tanto, los regímenes autoritarios en Alemania, Italia y Japón expandieron la producción de armamentos, revisaron la doctrina operativa e integraron nuevas tecnologías en sus fuerzas armadas. El resultado fue un marcado desequilibrio entre las intenciones en las sociedades democráticas y las capacidades en los estados revisionistas. Cuando la guerra regresó en 1939, las democracias poseían argumentos legales y éticos a favor de la paz, mientras que sus adversarios habían pasado una década preparándose para el conflicto industrializado. La abstención de armamentos no entregó estabilidad. Redujo el costo de la agresión para aquellos dispuestos a usar la fuerza y aumentó el eventual precio de la resistencia.

El dilema contemporáneo de la IA

Las democracias ahora enfrentan una versión moderna de ese dilema en relación con la inteligencia artificial (IA). El ritmo de desarrollo en los sistemas militares habilitados por IA se ha acelerado durante las últimas dos décadas. Desde que el UAV de combate Wing Loong-1 entró en servicio en 2009, un país ha supervisado una expansión constante en plataformas aéreas y marítimas autónomas y semiautónomas. Este país también ha señalado su intención de distribuir IA a través de su ejército, incluyendo automatización de comandos, fusión de inteligencia, vigilancia y reconocimiento, targeting, guerra electrónica y logística. Otro país, por su parte, ha articulado las apuestas en sus términos directos, advirtiendo que la inteligencia artificial es el futuro, no solo para su país, sino para toda la humanidad, señalando que quien se convierta en líder en este ámbito se convertirá en el gobernante del mundo.

Un primer intento de establecer normas compartidas tuvo lugar en 2024, cuando 90 gobiernos asistieron a una cumbre sobre IA responsable en el ámbito militar. Aproximadamente 60 estados respaldaron un plan destinado a guiar el uso responsable de la IA en el campo de batalla. De estos, 30 se negaron a adoptar el documento, incluyendo a uno, a pesar de haber enviado representación oficial. Este patrón refleja intentos anteriores de regulación de armas, en los que los estados democráticos buscaron restricción y responsabilidad legal, mientras que los estados autoritarios buscaron libertad de maniobra. Los estados que renuncian a las capacidades de IA enfrentarían adversarios que no lo hacen y no existe un mecanismo para garantizar la reciprocidad de los actores que rechazan normas humanitarias. La presencia de grupos no estatales con acceso a sistemas de armas improvisadas y herramientas digitales introduce una complejidad adicional, ya que tales grupos no participan en arreglos convencionales de control de armas. Las cuestiones éticas, por lo tanto, se sitúan dentro de un marco estratégico más amplio en el que la abstención conlleva sus propios costos y riesgos.

Marco ético de la guerra justa

Una forma estructurada de examinar la dimensión ética de esta transición existe en el marco de la tradición de la Guerra Justa. Desde Cicerón en la República Romana hasta Agustín y Tomás de Aquino, la tradición desarrolló métodos para reconciliar los deberes morales con la realidad práctica del conflicto armado. Durante el siglo XX, estas ideas informaron las leyes de conflicto armado y la codificación del derecho humanitario. Tres principios continúan guiando el análisis contemporáneo: Jus ad Bellum, que se ocupa de la justicia de ir a la guerra; Jus in Bello, que se refiere a la justicia de la conducta durante la guerra; y Jus post Bellum, que aborda la justicia después de la cesación de hostilidades.

Bajo Jus ad Bellum, la fusión de sensores habilitada por IA y el reconocimiento de patrones pueden mejorar la inteligencia y la discriminación de objetivos en la etapa de toma de decisiones. Estas capacidades pueden ayudar a los comandantes a evaluar la proporcionalidad y la necesidad antes de utilizar la fuerza. La inteligencia mejorada puede hacer que opciones menos destructivas sean disponibles, reducir el recurso a la escalada y apoyar los esfuerzos para contener el conflicto geográficamente.

Bajo Jus in Bello, se ha observado que los sistemas de soporte a la decisión impulsados por IA pueden permitir a los tomadores de decisiones humanos cumplir con el derecho humanitario internacional, acelerando el análisis de información relevante. Distinguir entre civiles y combatientes, identificar objetos protegidos y correlacionar información de múltiples fuentes se vuelve más fácil cuando los volúmenes de datos aumentan y cuando las herramientas analíticas pueden procesarlos rápidamente. Estas herramientas reducen el daño y mejoran la distribución de ayuda, siempre que se mantenga un control humano significativo. Bajo Jus post Bellum, la IA ayuda con la documentación, recolección de evidencia, mapeo de daños y priorización de la reconstrucción, apoyando la responsabilidad, reparaciones y la transición ordenada hacia la paz.

Implicaciones y riesgos

La discusión pública ha comenzado a abordar estas preguntas. En un debate reciente, se consideró la moción de que el uso de IA en la guerra está éticamente justificado. El intercambio reflejó una conversación societal más amplia sobre las implicaciones morales de delegar funciones que antes eran desempeñadas por humanos a sistemas que operan a velocidad de máquina. Los participantes aplicaron el marco de la Guerra Justa para examinar si las desventajas asociadas con la IA, como la escalada no intencionada, la alucinación, la responsabilidad opaca o el sesgo de automatización, pueden ser mitigadas mediante doctrina, ley y diseño. El intercambio reveló un reconocimiento creciente de que la IA ya está incrustada en muchos sistemas civiles y humanitarios, y que la exclusión militar requeriría decisiones de políticas significativas.

Una preocupación persistente se relaciona con el papel del humano. Se argumenta frecuentemente que las máquinas no pueden replicar el juicio y la intuición de individuos que han tomado decisiones críticas en momentos de tensión. Este argumento se presenta como evidencia de que la intuición humana forma un mecanismo de seguridad esencial. También se muestra que los sistemas de comando y control nuclear ya delegaban elementos de inferencia a las máquinas. La toma de decisiones humanas contiene vacíos y debilidades. La fatiga, la falta de formación, la interferencia política y los sesgos han producido muchos resultados desastrosos en conflictos del siglo XX y XXI. La IA puede reducir algunas categorías de error humano.

La pregunta central se refiere a la ubicación del humano dentro del sistema. La doctrina militar ahora distingue entre tres modelos. En un modelo de humano en el bucle, los humanos aprueban o niegan acciones letales o de targeting. Este modelo se aplica a escenarios que requieren el mayor grado de precaución ética y certeza legal. En un modelo de humano sobre el bucle, los sistemas autónomos realizan tareas, pero los humanos supervisan y pueden intervenir. Este modelo se aplica a la vigilancia de amplio espectro, defensa cibernética y guerra electrónica. En un modelo de humano fuera del bucle, la IA maneja logística rutinaria y manipulación de datos, lo que reduce la fatiga y libera personal para tareas que requieren creatividad y juicio. El área que genera controversia se refiere a la acción completamente autónoma en el campo de batalla.

Conclusión

La lección histórica más amplia describe un patrón recurrente en el que las sociedades democráticas no pueden confiar en la restricción moral cuando otros actores buscan ventaja a través de la innovación tecnológica. La declaración de un líder sobre el objetivo estratégico que surge de la superioridad de la IA subraya la responsabilidad ética de las democracias. La respuesta más responsable para los estados democráticos es asegurar que el desarrollo de la IA se conforme con el derecho internacional, preserve la responsabilidad humana y mantenga los estándares humanitarios. La alternativa sería un mundo en el que las sociedades que valoran los derechos humanos y la restricción legal se queden atrás de aquellas que no lo hacen, lo que crearía un entorno geopolítico moldeado por la coerción más que por la ley, con consecuencias que se extenderían más allá del campo de batalla.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...