Cuando la seguridad nacional se convierte en un escudo para evadir la responsabilidad de la IA
A medida que la inteligencia artificial (IA) se integra en la seguridad estatal y la vigilancia en Europa, las salvaguardas legales destinadas a restringir su uso se están quedando atrás. Los Estados miembros de la UE están recurriendo a la IA para automatizar la toma de decisiones, expandir la vigilancia y consolidar el poder estatal. Sin embargo, muchas de estas aplicaciones, especialmente la vigilancia biométrica y las evaluaciones de riesgo algorítmicas, permanecen en gran medida no reguladas en lo que respecta a la seguridad nacional. De hecho, las amplias excepciones para la seguridad nacional en la legislación de IA existente han creado importantes lagunas regulatorias. Además, el término «seguridad nacional» está tan vagamente definido que permite a los Estados eludir derechos fundamentales mientras despliegan IA con una supervisión mínima.
En un entorno geopolítico en rápida transformación y con un aumento del autoritarismo, los riesgos para la seguridad nacional se están convirtiendo en una cobertura conveniente para la vigilancia descontrolada y la autoridad ejecutiva. Esta dinámica establece un precedente peligroso. Los gobiernos de la UE y los países candidatos invocan la seguridad nacional para justificar el despliegue de IA de maneras que evaden el escrutinio regulatorio, particularmente en vigilancia y contrarrestar el terrorismo. Es fundamental mantener la jurisprudencia del Tribunal de Justicia de la Unión Europea, ya que proporciona una brújula legal para definir la seguridad nacional y establecer umbrales claros para cuándo los Estados pueden anular derechos fundamentales. Sin ello, Europa corre el riesgo de construir una arquitectura de seguridad impulsada por IA, pero protegida de la rendición de cuentas.
Consideraciones sobre la seguridad nacional en la lucha contra el terrorismo
Si bien la legislación de la UE existente carece de una definición concreta de seguridad nacional, el Tribunal de Justicia de la Unión Europea ha proporcionado cierta orientación sobre este asunto. Según la jurisprudencia del Tribunal, la seguridad nacional corresponde al «interés primordial en proteger las funciones esenciales del Estado y los intereses fundamentales de la sociedad mediante la prevención y el castigo de actividades capaces de desestabilizar gravemente las estructuras constitucionales, políticas, económicas o sociales de un país». Esta interpretación fue reforzada en casos judiciales donde se asoció estrechamente el terrorismo con la seguridad nacional.
Sin embargo, el tribunal también ha impuesto límites. En ciertos casos, estipuló que una amenaza a la seguridad nacional «debe ser genuina y presente o previsible», lo que presupone que han surgido circunstancias suficientemente concretas. Como resultado, los Estados miembros están sujetos a ciertas condiciones al invocar una justificación de seguridad nacional.
Estudios de caso: Uso de la IA por parte de los gobiernos bajo justificaciones de seguridad nacional
Identificar el uso de la IA por parte del gobierno para fines de seguridad nacional es un desafío, ya que tales iniciativas a menudo están clasificadas. A continuación, se examinan programas de vigilancia y seguridad impulsados por IA que los gobiernos pueden justificar bajo excepciones de seguridad nacional.
En Francia, desde la Ley de Inteligencia de 2015, se han utilizado algoritmos para fortalecer los esfuerzos en contrarrestar el terrorismo. Las autoridades han ampliado el alcance de los sistemas algorítmicos para incluir el monitoreo de sitios web y aplicaciones de mensajería. Sin embargo, la opacidad en el alcance y las salvaguardias de estos experimentos suscitan preocupaciones sobre la normalización de la vigilancia algorítmica bajo el pretexto de la seguridad nacional.
En Hungría, se criminalizó la participación en eventos del Orgullo y se desplegó tecnología de reconocimiento facial contra los manifestantes, lo que puede constituir una violación directa de la legislación de IA de la UE. Aunque Hungría no ha invocado la excepción de seguridad nacional para justificar su uso de esta tecnología, es fácil que tales prácticas sean justificadas bajo la pretensión de seguridad nacional.
En Serbia, se adquirió tecnología de reconocimiento facial que puede identificar individuos basado en características oculares. Dada la historia de Serbia con el uso indebido de excepciones de seguridad nacional, existe un riesgo creíble de que las autoridades puedan invocar dicha seguridad para justificar la vigilancia masiva.
Preguntas abiertas sobre desafíos legales y regulatorios
La legislación de la UE y la jurisprudencia del Tribunal de Justicia pueden servir como instrumentos útiles para restringir el poder y la vigilancia del gobierno. A medida que los gobiernos despliegan IA para fines de seguridad nacional, es fundamental comprender cómo las regulaciones y la jurisprudencia existentes pueden aplicarse a estas tecnologías.
Recomendaciones para la rendición de cuentas y supervisión
Para proteger los derechos fundamentales en iniciativas de seguridad nacional habilitadas por IA, se pueden considerar las siguientes recomendaciones:
- Colaborar con periodistas de investigación para descubrir información sobre iniciativas de seguridad nacional basadas en IA.
- Buscar litigios estratégicos para asegurar la aplicación estricta de las condiciones establecidas en la jurisprudencia del Tribunal.
- Involucrar a partes interesadas institucionales para comprender mejor sus perspectivas y cultura institucional.
- Construir coaliciones transfronterizas con organizaciones de la sociedad civil para comprender mejor las tendencias emergentes y compartir mejores prácticas.
Las excepciones de seguridad nacional requieren límites urgentes. La clasificación de los sistemas de IA como herramientas de seguridad nacional permite a los gobiernos eludir la transparencia y la supervisión, lo que puede erosionar tanto los derechos como la rendición de cuentas democrática.