Proposition de cadre d’IA pouvant renforcer les biais contre les minorités
Alors que le Sommet de l’Impact de l’IA 2026 doit commencer prochainement, un nouveau rapport met en garde contre le cadre de gouvernance de l’intelligence artificielle proposé, qui, bien qu’il prône l’inclusivité et l’innovation, pourrait nuire de manière disproportionnée aux minorités religieuses, aux communautés Dalit et Adivasi, ainsi qu’aux minorités sexuelles et de genre en l’absence de protections contraignantes.
Analyse du rapport
Le rapport, intitulé Gouvernance de l’IA à l’ère du retour en arrière démocratique, souligne que la préférence du gouvernement pour la conformité volontaire et l’autorégulation plutôt que pour des protections statutaires applicables risque d’ancrer des inégalités structurelles. Les communautés marginalisées manquent souvent de ressources financières et institutionnelles pour contester des systèmes algorithmiques opaques devant les tribunaux.
Bien que les lignes directrices sur la gouvernance de l’IA aient été publiées, rejetant ce qu’elles qualifient de réglementation lourde, le rapport soutient que la dépendance vis-à-vis des lois existantes pourrait ne pas être suffisante pour traiter les nouveaux dangers liés aux systèmes de décision automatisée.
Risques et implications
Le rapport documente également des cas où des outils d’IA générative ont amplifié la polarisation communautaire, notamment par la diffusion de contenus ciblant certaines communautés. De plus, l’utilisation croissante de l’IA dans la police et la surveillance soulève des préoccupations, car des pilotes de police prédictive pourraient reproduire des biais historiques. L’utilisation de la technologie de reconnaissance faciale dans les villes est également flaguée comme problématique, surtout en l’absence d’un cadre juridique adéquat.
Les risques d’exclusion dans la distribution des services de bien-être sont également soulignés, notant que l’authentification par reconnaissance faciale pourrait affecter de manière disproportionnée les bénéficiaires pauvres et marginalisés.
Conclusion
Bien que l’ambition de développer des capacités en IA soit reconnue, le rapport conclut qu’en l’absence d’obligations de transparence contraignantes, de surveillance indépendante et de protections explicites pour les minorités, le modèle actuel de gouvernance pourrait approfondir les inégalités existantes plutôt que de démocratiser les progrès technologiques.