Rapport conjoint : Sommet sur l’impact de l’IA en Inde 2026 : Gouvernance de l’IA à l’ère du recul démocratique
À l’approche du Sommet sur l’impact de l’IA en Inde en 2026, le premier sommet mondial sur l’IA dans le Sud mondial, des organisations ont publié un rapport de politique examinant le décalage entre le discours officiel de l’IA en Inde et la réalité de l’IA qui permet la haine, la discrimination, la surveillance, la répression et la violence contre les communautés minoritaires et marginalisées, dans un environnement général de recul démocratique.
Contexte et problématiques
Le rapport documente comment les outils d’IA générative sont utilisés, y compris par le parti au pouvoir, pour diaboliser et déshumaniser les minorités religieuses. Les systèmes d’IA opaques déployés par l’État permettent la surveillance de masse, l’exclusion des services essentiels et la suppression des électeurs des listes électorales.
Alors que les dirigeants mondiaux se rassemblent pour un sommet officiellement centré sur la « démocratisation de l’IA et le rapprochement de la fracture de l’IA », le rapport révèle un schéma préoccupant de déploiement de l’IA qui compromet les droits démocratiques et cible les communautés vulnérables.
Utilisation de l’IA pour la désinformation
Le rapport montre comment le gouvernement et ses mandataires utilisent systématiquement du contenu généré par l’IA sur les réseaux sociaux pour propager un contenu anti-minoritaire diviseur et déshumanisant. Par exemple, une vidéo générée par l’IA a été diffusée montrant un responsable d’État tirant sur des hommes musulmans, renforçant ainsi la peur d’un changement démographique.
En outre, les agences de maintien de l’ordre déploient des technologies de reconnaissance faciale, des algorithmes de police prédictive et des systèmes de surveillance alimentés par l’IA sans supervision indépendante ni transparence.
Conséquences et appels à l’action
Les préoccupations se concentrent sur l’approche de gouvernance de l’Inde. Les lignes directrices sur la gouvernance de l’IA publiées favorisent l’autorégulation volontaire plutôt que des mécanismes de responsabilité contraignants. Bien qu’elles reconnaissent la nécessité de protéger les groupes vulnérables, elles n’abordent pas les dommages spécifiques subis par les minorités religieuses et les communautés marginalisées.
Les organisations exhortent les dirigeants mondiaux à exiger une réglementation respectueuse des droits, à interdire l’utilisation de l’IA pour la surveillance de masse et la police prédictive, et à garantir la transparence et la supervision indépendante pour tous les déploiements d’IA dans le secteur public.
Conclusion
Il est urgent de reconnaître la nécessité d’une réglementation robuste pour traiter les dommages résultant de la conception, du développement et du déploiement des systèmes d’IA. Les voix des communautés affectées doivent être au centre des discussions sur la gouvernance de l’IA.