Rapport sur l’utilisation de l’IA pour cibler les minorités et étendre la surveillance
Une étude soulève des inquiétudes concernant l’utilisation politique de l’IA générative et les protections insuffisantes.
Contexte et préoccupations
Un rapport conjoint a été publié peu avant un sommet sur l’IA en Inde, soulevant des préoccupations sur l’utilisation de l’intelligence artificielle dans des contextes politiques et sociaux, notamment son impact sur les communautés musulmanes.
Le rapport affirme que des outils d’IA générative sont utilisés pour propager des récits anti-minoritaires, renforcer les systèmes de surveillance et influencer le processus électoral, alors que la transparence et la réglementation restent faibles.
Exemples et implications
Le rapport cite un exemple où une vidéo générée par l’IA a été partagée sur un compte officiel, montrant un responsable politique en train de tirer sur des individus musulmans, ce qui a été qualifié de contenu inflammatoire.
Des membres d’organisations de droits numériques soulignent que l’utilisation de l’IA pour représenter la violence contre des communautés religieuses envoie un message dangereux, normalisant la haine et instaurant un climat de peur.
Mesures de surveillance et défis
Le rapport met également en lumière des mesures de surveillance, évoquant le développement d’un outil d’IA destiné à identifier des immigrants présumés. Des experts linguistiques critiquent la fiabilité de tels systèmes basés sur l’accent, soulignant que cela peut accroître le risque de discrimination.
De plus, l’utilisation de la technologie de reconnaissance faciale par les forces de police est discutée. Le rapport indique qu’il existe peu d’informations publiques sur la manière dont ces systèmes sont acquis et leur précision, ce qui soulève des préoccupations quant aux erreurs d’identité.
Conséquences sur les programmes de bien-être
Le rapport signale également des problèmes dans la livraison des programmes de bien-être, où des systèmes d’IA ont conduit à l’exclusion de bénéficiaires éligibles. Ces systèmes automatiques sont déployés sans consultation publique, obligeant les citoyens à prouver leur éligibilité lorsqu’ils sont considérés comme inéligibles.
Préoccupations concernant le processus électoral
Enfin, des questions sont soulevées sur le manque de transparence des logiciels utilisés pour marquer les électeurs « suspects ». Le rapport souligne que si des systèmes automatisés sont employés sans transparence, cela pourrait compromettre les droits électoraux des citoyens.
Recommandations et conclusion
Le rapport conclut par plusieurs recommandations, notamment la nécessité d’une gouvernance de l’IA alignée sur des valeurs démocratiques et des droits fondamentaux. Les représentants d’organisations soulignent que l’intelligence artificielle doit servir les gens, et non les cibler.
À l’approche du sommet sur l’IA, le rapport intensifie le débat sur l’utilisation de l’IA en Inde, mettant en lumière les craintes des communautés musulmanes face à des outils potentiellement discriminatoires.