Exploration du Rôle de l’IA dans les Forces de l’Ordre
Les agences de forces de l’ordre (LEAs) utilisent de plus en plus l’intelligence artificielle (IA) pour améliorer leur fonctionnement, notamment grâce à des capacités accrues pour le policing prédictif.
À l’échelle mondiale, l’adoption de nouvelles technologies par les forces de l’ordre est en augmentation. Aux États-Unis, le département de police de New York a adopté des outils comme Patternizr pour l’analyse des motifs et le déploiement des agents. De même, en Chine, le gouvernement utilise des robots pour le contrôle des foules et surveille les activités suspectes à l’aide de drones et de caméras de détention.
Les scientifiques développent un modèle de réalité virtuelle de Shanghai, incluant bureaux et résidences, pour fournir une assistance en temps réel aux services de police et de secours. Les États-Unis et l’Australie se concentrent également sur la protection de l’enfance en utilisant l’IA, avec des initiatives telles que l’utilisation de Clearview AI pour une détection et une prévention plus rapides dans les cas d’exploitation des enfants.
En Corée du Sud, des voitures de patrouille alimentées par l’IA ont été introduites, intégrant la reconnaissance vocale, l’analyse vidéo et le traitement des données en temps réel pour assurer la sécurité sur les routes. Ces exemples mettent en lumière une tendance mondiale d’intégration de la technologie pour relever les défis de la police.
Tendances et Perspectives
La taille du marché mondial pour le policing prédictif est estimée à atteindre 157 milliards de dollars US d’ici 2034, avec un taux de croissance annuel composé (CAGR) de 46,7 % entre 2025 et 2034. L’attrait d’intégrer d’énormes ensembles de données criminelles pour accélérer le processus d’enquête est grandissant, y compris pour des pays comme l’Inde.
Le ratio police/population en Inde est de 153222
Les applications de l’IA dans les forces de l’ordre vont du contre-terrorisme à la gestion des foules. En Uttar Pradesh, l’utilisation de drones et de caméras de surveillance alimentés par l’IA a été utile pour suivre les personnes et gérer le trafic lors de grands rassemblements comme le Kumbh Mela.
De plus, des outils modernes développés par des agences centrales comme le Bureau de la recherche et du développement de la police (BPR&D) explorent des espaces comme le dark web pour évaluer le sentiment et fournir des informations crédibles aux LEAs.
Défis et Considérations
Cependant, les systèmes d’IA peuvent parfois être submergés et fournir des performances sous-optimales. Malgré la présence de 275 caméras de surveillance alimentées par l’IA, le Rath Yatra à Puri a été marqué par la mort de trois pèlerins, soulignant les limites de la technologie dans la gestion des foules.
Des incohérences techniques, telles que des faux positifs ciblant des personnes à la peau plus foncée, comme documenté dans des pays comme les États-Unis, soulèvent des préoccupations supplémentaires dans une nation diverse comme l’Inde.
Considérations de Gouvernance
Les efforts des États pour équiper et moderniser leurs forces de police ont été renforcés par le programme « Assistance aux États et Territoires pour la Modernisation de la Police » (ASUMP), avec un budget de 4 846 crores INR pour une période de cinq ans entre 2021 et 2026. Delhi et le Tamil Nadu ont mis en œuvre ‘Innsight’, un outil d’IA pour l’analyse des données, développé par Innefu Labs, une entreprise privée sujette à des cyberattaques et des violations de données.
Des cas comme ceux-ci suggèrent la nécessité d’un cadre de diligence raisonnable pour les entreprises privées dans la sécurisation des contrats, soulignant le besoin d’un processus adéquat et de tests avant le déploiement. Bien que les outils d’IA promettent efficacité, leur déploiement doit être accompagné de mécanismes d’explicabilité pour assurer des boucles de rétroaction adéquates et la responsabilité.
Un cadre de gouvernance pour le déploiement de l’IA dans les forces de l’ordre doit tenir compte du potentiel de biais, de discrimination et de faux positifs, soulevant des questions de responsabilité et de responsabilité. Cela nécessite de réconcilier l’utilisation opérationnelle avec le respect des tests de légalité, de nécessité et de proportionnalité, en particulier dans le contexte du paysage réglementaire fragmenté pour les données biométriques.
Évaluation et Évolution
Pour suivre le rythme de la croissance technologique et utiliser l’IA de manière responsable, les LEAs doivent adopter des mécanismes d’évaluation pour accompagner l’évolution technologique. Les entreprises devraient subir des audits algorithmiques externes périodiques et recevoir une certification de conformité de l’autorité d’audit.
Des programmes pilotes devraient être rendus obligatoires pour déterminer l’impact réel de l’IA et l’évaluer par rapport aux paramètres de risque dans un contexte donné. La proposition d’établir une base de données des incidents pour créer une collection de risques et élaborer des mécanismes de réduction des dommages liés au déploiement des outils d’IA sera bénéfique pour reconnaître la nature évolutive des préjudices.
Il est également crucial de former le personnel des LEAs à l’utilisation responsable de l’IA, incluant la connaissance des risques et des dommages potentiels. Des systèmes de surveillance de l’IA peuvent détecter des incohérences dans les activités policières en identifiant des schémas de préjugé et d’usage disproportionné de la force parmi les agents de police, contribuant ainsi aux évaluations internes des performances.
Une régulation réfléchie, associée à une surveillance humaine, est la pierre angulaire du développement de cadres de gouvernance efficaces pour garantir le développement de systèmes sûrs et fiables dans une nation diverse.