El escudo de la seguridad nacional en la rendición de cuentas de la IA

Cuando la seguridad nacional se convierte en un escudo para evadir la responsabilidad de la IA

A medida que la inteligencia artificial (IA) se integra en la seguridad estatal y la vigilancia en Europa, las salvaguardas legales destinadas a restringir su uso se están quedando atrás. Los Estados miembros de la UE están recurriendo a la IA para automatizar la toma de decisiones, expandir la vigilancia y consolidar el poder estatal. Sin embargo, muchas de estas aplicaciones, especialmente la vigilancia biométrica y las evaluaciones de riesgo algorítmicas, permanecen en gran medida no reguladas en lo que respecta a la seguridad nacional. De hecho, las amplias excepciones para la seguridad nacional en la legislación de IA existente han creado importantes lagunas regulatorias. Además, el término «seguridad nacional» está tan vagamente definido que permite a los Estados eludir derechos fundamentales mientras despliegan IA con una supervisión mínima.

En un entorno geopolítico en rápida transformación y con un aumento del autoritarismo, los riesgos para la seguridad nacional se están convirtiendo en una cobertura conveniente para la vigilancia descontrolada y la autoridad ejecutiva. Esta dinámica establece un precedente peligroso. Los gobiernos de la UE y los países candidatos invocan la seguridad nacional para justificar el despliegue de IA de maneras que evaden el escrutinio regulatorio, particularmente en vigilancia y contrarrestar el terrorismo. Es fundamental mantener la jurisprudencia del Tribunal de Justicia de la Unión Europea, ya que proporciona una brújula legal para definir la seguridad nacional y establecer umbrales claros para cuándo los Estados pueden anular derechos fundamentales. Sin ello, Europa corre el riesgo de construir una arquitectura de seguridad impulsada por IA, pero protegida de la rendición de cuentas.

Consideraciones sobre la seguridad nacional en la lucha contra el terrorismo

Si bien la legislación de la UE existente carece de una definición concreta de seguridad nacional, el Tribunal de Justicia de la Unión Europea ha proporcionado cierta orientación sobre este asunto. Según la jurisprudencia del Tribunal, la seguridad nacional corresponde al «interés primordial en proteger las funciones esenciales del Estado y los intereses fundamentales de la sociedad mediante la prevención y el castigo de actividades capaces de desestabilizar gravemente las estructuras constitucionales, políticas, económicas o sociales de un país». Esta interpretación fue reforzada en casos judiciales donde se asoció estrechamente el terrorismo con la seguridad nacional.

Sin embargo, el tribunal también ha impuesto límites. En ciertos casos, estipuló que una amenaza a la seguridad nacional «debe ser genuina y presente o previsible», lo que presupone que han surgido circunstancias suficientemente concretas. Como resultado, los Estados miembros están sujetos a ciertas condiciones al invocar una justificación de seguridad nacional.

Estudios de caso: Uso de la IA por parte de los gobiernos bajo justificaciones de seguridad nacional

Identificar el uso de la IA por parte del gobierno para fines de seguridad nacional es un desafío, ya que tales iniciativas a menudo están clasificadas. A continuación, se examinan programas de vigilancia y seguridad impulsados por IA que los gobiernos pueden justificar bajo excepciones de seguridad nacional.

En Francia, desde la Ley de Inteligencia de 2015, se han utilizado algoritmos para fortalecer los esfuerzos en contrarrestar el terrorismo. Las autoridades han ampliado el alcance de los sistemas algorítmicos para incluir el monitoreo de sitios web y aplicaciones de mensajería. Sin embargo, la opacidad en el alcance y las salvaguardias de estos experimentos suscitan preocupaciones sobre la normalización de la vigilancia algorítmica bajo el pretexto de la seguridad nacional.

En Hungría, se criminalizó la participación en eventos del Orgullo y se desplegó tecnología de reconocimiento facial contra los manifestantes, lo que puede constituir una violación directa de la legislación de IA de la UE. Aunque Hungría no ha invocado la excepción de seguridad nacional para justificar su uso de esta tecnología, es fácil que tales prácticas sean justificadas bajo la pretensión de seguridad nacional.

En Serbia, se adquirió tecnología de reconocimiento facial que puede identificar individuos basado en características oculares. Dada la historia de Serbia con el uso indebido de excepciones de seguridad nacional, existe un riesgo creíble de que las autoridades puedan invocar dicha seguridad para justificar la vigilancia masiva.

Preguntas abiertas sobre desafíos legales y regulatorios

La legislación de la UE y la jurisprudencia del Tribunal de Justicia pueden servir como instrumentos útiles para restringir el poder y la vigilancia del gobierno. A medida que los gobiernos despliegan IA para fines de seguridad nacional, es fundamental comprender cómo las regulaciones y la jurisprudencia existentes pueden aplicarse a estas tecnologías.

Recomendaciones para la rendición de cuentas y supervisión

Para proteger los derechos fundamentales en iniciativas de seguridad nacional habilitadas por IA, se pueden considerar las siguientes recomendaciones:

  1. Colaborar con periodistas de investigación para descubrir información sobre iniciativas de seguridad nacional basadas en IA.
  2. Buscar litigios estratégicos para asegurar la aplicación estricta de las condiciones establecidas en la jurisprudencia del Tribunal.
  3. Involucrar a partes interesadas institucionales para comprender mejor sus perspectivas y cultura institucional.
  4. Construir coaliciones transfronterizas con organizaciones de la sociedad civil para comprender mejor las tendencias emergentes y compartir mejores prácticas.

Las excepciones de seguridad nacional requieren límites urgentes. La clasificación de los sistemas de IA como herramientas de seguridad nacional permite a los gobiernos eludir la transparencia y la supervisión, lo que puede erosionar tanto los derechos como la rendición de cuentas democrática.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...