La sécurité nationale comme prétexte à l’absence de responsabilité en matière d’IA

A shattered, high-tech mirror reflecting a distorted, digital landscape

Lorsque la sécurité nationale devient un bouclier pour échapper à la responsabilité en matière d’IA

À mesure que l’intelligence artificielle (IA) s’intègre dans la sécurité et la surveillance des États à travers l’Europe, les garanties juridiques censées contraindre son utilisation sont de plus en plus laissées de côté. Les États membres de l’UE se tournent vers l’IA pour automatiser la prise de décision, élargir la surveillance et consolider le pouvoir de l’État. Cependant, de nombreuses applications, en particulier la surveillance biométrique et les évaluations de risque algorithmiques, restent largement non réglementées en ce qui concerne la sécurité nationale.

En effet, des exemptions larges pour la sécurité nationale dans la législation existante sur l’IA, y compris l’Article 2 de la loi sur l’IA de l’UE, ont créé des lacunes réglementaires significatives. De plus, la « sécurité nationale » elle-même est définie de manière si floue qu’elle permet aux États de contourner les droits fondamentaux tout en déployant l’IA avec un minimum de supervision.

Dans un contexte de changements géopolitiques rapides et d’autoritarisme croissant, les risques pour la sécurité nationale deviennent un prétexte pratique pour une surveillance non contrôlée et une autorité exécutive accrue. Cette dynamique établit un précédent dangereux. Les gouvernements de l’UE invoquent la sécurité nationale pour justifier le déploiement de l’IA de manière à éviter le contrôle réglementaire, en particulier dans les domaines de la surveillance et de la lutte contre le terrorisme.

Considérations en matière de sécurité nationale par la Cour de justice de l’Union européenne

Bien que la législation existante de l’UE manque d’une définition concrète de la sécurité nationale, la Cour de justice de l’Union européenne (CJUE) a fourni certaines orientations à ce sujet. Selon la jurisprudence de la CJUE, la sécurité nationale correspond à l’« intérêt principal de protéger les fonctions essentielles de l’État et les intérêts fondamentaux de la société par la prévention et la punition d’activités capables de déstabiliser gravement les structures constitutionnelles, politiques, économiques ou sociales d’un pays, notamment en menaçant directement la société, la population ou l’État lui-même, comme les activités terroristes ».

Cette interprétation a été renforcée par d’autres décisions de la CJUE qui associent étroitement la lutte contre le terrorisme et la sécurité nationale. Sous ce cadre juridique, les États membres de l’UE peuvent chercher à justifier toute initiative de lutte contre le terrorisme au nom de la sécurité nationale.

Études de cas : Utilisation de l’IA par les gouvernements sous prétexte de sécurité nationale

Identifier l’utilisation de l’IA par les gouvernements à des fins de sécurité nationale est difficile, car ces initiatives sont souvent classifiées. Voici quelques exemples de programmes de surveillance et de sécurité alimentés par l’IA que les gouvernements peuvent justifier sous des exemptions de sécurité nationale.

Depuis la loi sur le renseignement de 2015, un pays a utilisé l’IA pour renforcer ses efforts de lutte contre le terrorisme en identifiant les activités terroristes potentielles. Au cours de la dernière décennie, les autorités ont élargi la portée des systèmes algorithmiques pour inclure la surveillance de sites web et d’applications de messagerie à la recherche de signes d’activité extrémiste. L’absence de clarté sur la portée et les garanties de cette expérience suscite des inquiétudes quant à la normalisation de la surveillance algorithmique sous le couvert de la sécurité nationale.

Les agences de contrôle des frontières ont également adopté des évaluations de risque basées sur l’IA. Par exemple, un pays a utilisé des évaluations de risque fondées sur les dossiers des passagers pour signaler les voyageurs jugés suspects en se basant sur leurs itinéraires de voyage. Bien que ces algorithmes soient interdits d’examiner explicitement des caractéristiques personnelles protégées, ils peuvent néanmoins reproduire des biais contre des groupes marginalisés.

Plus récemment, un pays a établi un Institut national pour l’évaluation et la sécurisation de l’IA, liant explicitement le développement de l’IA à la sécurité nationale. Cela indique un effort croissant des gouvernements pour institutionnaliser l’expertise des universitaires et orienter la recherche scientifique vers des objectifs de sécurité d’État.

Questions ouvertes sur les défis juridiques et réglementaires

La loi sur l’IA de l’UE, la Charte des droits fondamentaux de l’UE et la jurisprudence de la CJUE peuvent servir d’instruments utiles pour contraindre le pouvoir gouvernemental et la surveillance. À mesure que les gouvernements déploient de plus en plus l’IA à des fins de sécurité nationale, il est essentiel de comprendre comment les réglementations et la jurisprudence existantes peuvent s’appliquer à ces technologies.

Recommandations pour la responsabilité et la surveillance

Pour protéger les droits fondamentaux dans les initiatives de sécurité nationale alimentées par l’IA, la société civile peut envisager les recommandations suivantes :

  1. Collaborer avec des journalistes d’investigation pour découvrir des informations sur les initiatives de sécurité nationale basées sur l’IA.
  2. Poursuivre des actions en justice stratégiques pour défendre l’application stricte des conditions établies dans la jurisprudence de la CJUE.
  3. Engager les parties prenantes institutionnelles pour mieux comprendre leurs perspectives et stratégies.
  4. Construire des coalitions transfrontalières avec des organisations de la société civile pour partager les meilleures pratiques d’action.

Les exemptions de sécurité nationale nécessitent des limites urgentes pour éviter que la sécurité nationale ne devienne un prétexte pour la surveillance de masse et la prise de décisions algorithmiques non contrôlées.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...