Un modelo basado en escenarios de combate para cuantificar la toma de decisiones éticas en la IA militar
Nota del editor: El artículo en el que se basa este texto fue presentado originalmente en la 9ª Conferencia Internacional Anual sobre Tecnología de la Información, en noviembre de 2025. Se reproduce aquí con el permiso de la IEEE.
Introducción
En el siglo XXI, la tecnología de la inteligencia artificial (IA) ha impulsado un cambio de paradigma en la defensa, mejorando significativamente las capacidades operativas en la fuerza aérea. Los sistemas de combate impulsados por IA apoyan una amplia gama de funciones, como la detección de objetivos, la toma de decisiones tácticas, la conciencia situacional y el vuelo autónomo, reduciendo la carga cognitiva sobre los pilotos humanos y mejorando la capacidad de respuesta en tiempo real y la supervivencia.
No obstante, la creciente autonomía de los sistemas de IA introduce desafíos complejos, que incluyen posibles violaciones del derecho internacional, errores en la toma de decisiones y una atribución ambigua de la responsabilidad ética. Esto ha llevado a la necesidad creciente de redefinir el papel de los pilotos de combate humanos dentro de las operaciones integradas con IA.
Para abordar estos problemas, este estudio propone un modelo cuantitativo de toma de decisiones éticas que integra matemáticamente los principios éticos militares nacionales y las normas legales internacionales, incorporando variables dinámicas del campo de batalla. El modelo propuesto busca contribuir al desarrollo de políticas de defensa y sistemas de entrenamiento de combate al ofrecer un marco de evaluación ética estructurado y aplicable operativamente.
Trabajo relacionado
Este artículo propone un marco fundamental para modelar matemáticamente la toma de decisiones éticas en sistemas de combate habilitados por IA. Para sustentar este marco, se examinan investigaciones previas en tres dominios clave: 1) desarrollo de tecnologías de IA integradas en aviones de combate; 2) estándares éticos militares nacionales; y 3) enfoques para la cuantificación del juicio ético. Basado en este análisis, el artículo enfatiza su contribución única a la literatura sobre ética en IA militar.
Evolución de los sistemas de aviones de combate basados en IA
La tecnología de aviones de combate con IA está avanzando de diversas maneras, dependiendo de las estrategias nacionales. Las iniciativas incluyen el Air Combat Evolution (ACE), Skyborg y Next Generation Air Dominance (NGAD). China integra sistemas de pilotos de IA en su J-20 y mejora las capacidades autónomas de drones con IA. Europa se centra en operaciones humanas asistidas por IA y tecnologías de análisis de campo basadas en la nube, enfatizando el cumplimiento ético y la seguridad operativa.
Estos desarrollos están cambiando el papel de los pilotos humanos de operadores a tomadores de decisiones estratégicas o supervisores, lo que destaca la necesidad de modelos cuantitativos que respalden el diseño ético y los marcos de responsabilidad.
Normas nacionales para la ética militar de la IA
A medida que la aplicación militar de la IA se expande, los países establecen estándares éticos según sus objetivos estratégicos y principios filosóficos, destacando:
- Estados Unidos: Los estándares de ética de IA se alinean con la doctrina militar y los marcos legales nacionales.
- China: La ética está guiada por valores socialistas centrales y los intereses de seguridad nacional.
- Unión Europea: Se centra en principios humanocéntricos, transparencia y responsabilidad.
- Corea del Sur: Está desarrollando directrices integrales para la ética de la IA en defensa.