L’arsenal de surveillance IA du DHS s’accroît face aux défis judiciaires

A shattered surveillance drone with a courtroom gavel embedded in its lens

DHS : L’arsenal de surveillance IA s’agrandit alors que l’agence défie les tribunaux

La semaine dernière, un juge fédéral a inclus une liste de « 96 ordonnances judiciaires que l’Agence des douanes et de la protection des frontières a violées dans 74 affaires » dans une ordonnance concernant un individu détenu. « Cette liste devrait faire réfléchir quiconque — peu importe ses croyances politiques — qui se soucie de l’état de droit », a écrit le juge.

Cependant, alors que l’agence défie l’autorité judiciaire et engage des actes de violence, elle acquiert également des outils de surveillance sophistiqués alimentés par des technologies d’intelligence artificielle, qu’elle déploie rapidement dans les villes américaines. Le dernier inventaire de l’IA du Département de la sécurité intérieure révèle plus de 200 cas d’utilisation de l’IA qui sont déployés ou en développement, une augmentation de près de 40 % depuis la dernière divulgation.

Une croissance alimentée par l’ICE

L’Agence des douanes et de la protection des frontières est à l’origine de cette croissance, ajoutant 24 nouvelles applications d’IA, y compris des outils pour traiter des informations, examiner des données de médias sociaux et déployer la reconnaissance faciale pour confirmer des identités. Ces ajouts incluent des produits d’entreprises de surveillance, qui alimentent les opérations de ciblage.

Problèmes de droits numériques et de surveillance

Des preuves substantielles d’illégalités par les agences sont disponibles, notamment en matière de droits numériques et de surveillance. Des poursuites ont été intentées documentant des arrêts sans motif, des arrestations sans mandat et du profilage racial. Les entreprises technologiques facilitent ces applications de reconnaissance faciale, construisant une infrastructure de surveillance qui peut cibler quiconque pour le profit.

Un arsenal d’IA en expansion

Plusieurs applications récemment divulguées ont suscité des inquiétudes parmi les experts. Parmi elles :

  • ELITE : Outil utilisant l’IA générative pour aider à extraire des informations à partir de dossiers.
  • Mobile Fortify : Application de reconnaissance faciale et d’empreintes digitales, utilisée depuis 2025.
  • Outils de traitement des conseils : Utilisant des modèles linguistiques pour examiner et catégoriser les conseils entrants.
  • Hurricane Score : Modèle prédictif pour évaluer la conformité des non-citoyens dans des programmes d’alternatives à la détention.
  • Analyse des médias sociaux : Outil permettant des recherches fines sur les médias sociaux.

Implications et risques

Parmi les 238 cas d’utilisation, 55 sont considérés comme ayant un « impact élevé ». Les outils d’IA sont utilisés pour automatiser la surveillance et centraliser le pouvoir, créant un état de surveillance. Cela décourage les gens d’accéder à des services essentiels, augmentant les risques pour les droits humains.

Conclusion

La manière dont le Département de la sécurité intérieure utilisera ces nouvelles technologies de surveillance reste à voir, tout comme la réaction politique. Les récents événements suggèrent un soutien croissant à l’abolition de certaines agences, ce qui pourrait mener à des discussions sur des réformes substantielles.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...