Les systèmes d’IA pourraient alimenter le ‘colonialisme numérique’ par l’extraction de données autochtones
Des recherches avertissent que l’intelligence artificielle peut également reproduire des modèles d’exploitation coloniale à l’ère numérique. Sans cadres de gouvernance plus solides, l’IA pourrait devenir un autre mécanisme par lequel des institutions puissantes extraient de la valeur des populations marginalisées tout en les laissant exclues des bénéfices.
Le risque croissant de l’extractivisme de l’IA
Une nouvelle étude examine ce risque croissant et propose un cadre juridique et de gouvernance pour l’empêcher. Les systèmes d’intelligence artificielle sont de plus en plus construits sur des données dérivées de communautés autochtones sans surveillance, compensation ou participation significative.
Selon les auteurs, le développement de l’IA dépend de plus en plus de jeux de données massifs qui incluent souvent des enregistrements linguistiques autochtones, des connaissances écologiques, des informations biométriques et des données géospatiales. Ces ressources sont fréquemment collectées à partir de dépôts en ligne, d’archives numériques et de technologies de surveillance, sous l’hypothèse que les données accessibles au public sont libres d’utilisation. Cette approche risque de reproduire l’extractivisme colonial historique.
Comment l’IA reproduit des modèles de colonialisme numérique
La recherche identifie plusieurs domaines où les technologies de l’IA reproduisent déjà des modèles historiques d’extraction de ressources coloniales. Un exemple notable concerne l’utilisation des langues autochtones dans les ensembles de données d’entraînement de l’IA. Les modèles d’apprentissage automatique conçus pour la reconnaissance vocale, la traduction et l’IA conversationnelle s’appuient de plus en plus sur des enregistrements de langues menacées collectés sur Internet.
Pour de nombreux groupes autochtones, la préservation de la langue est étroitement liée à l’identité culturelle et à la survie historique. Les langues autrefois réprimées par des politiques coloniales sont désormais numérisées et intégrées dans des systèmes d’IA sans l’implication des communautés. Ce processus peut transformer le patrimoine culturel en ressources de données commerciales contrôlées par des entreprises extérieures.
Une autre préoccupation concerne l’expansion des technologies biométriques alimentées par l’IA. Les systèmes de reconnaissance faciale, les bases de données d’empreintes digitales et les programmes d’identification biométrique à grande échelle deviennent centraux dans les infrastructures de surveillance modernes. Ces technologies ciblent souvent de manière disproportionnée les communautés autochtones et les militants, en particulier dans les contextes de conflits sur les droits environnementaux ou fonciers.
Les défis des cadres de gouvernance actuels
Les cadres de gouvernance de l’IA actuels ne sont pas équipés pour relever les défis éthiques posés par l’extraction de données des communautés autochtones. Bien que des accords internationaux existent pour réglementer l’utilisation des ressources biologiques, des protections similaires sont largement absentes dans le domaine numérique.
Les auteurs soulignent l’importance de la souveraineté des données autochtones, un mouvement croissant qui affirme que les peuples autochtones ont le droit de contrôler les données concernant leurs communautés, territoires et cultures. Plusieurs cadres ont émergé pour soutenir cette approche, tels que les principes CARE, qui mettent l’accent sur le bénéfice collectif, l’autorité de contrôle et la responsabilité en matière de gouvernance des données.
Proposition d’un cadre mondial pour la gouvernance éthique des données d’IA
Pour faire face aux risques de l’extractivisme de l’IA, l’étude propose un nouveau modèle de gouvernance internationale qui combine les mécanismes d’accès et de partage des bénéfices avec les cadres de gouvernance des données autochtones. Ce modèle de gouvernance tressée intégrerait des principes juridiques, éthiques et opérationnels pour créer des protections plus robustes pour les données autochtones.
Ce modèle exigerait des développeurs d’IA qu’ils obtiennent un consentement éclairé préalable avant de collecter ou d’utiliser des données autochtones, négocient des termes convenus mutuellement avec les communautés et garantissent que les bénéfices générés par les applications d’IA sont distribués équitablement.
Les chercheurs affirment que la gouvernance de l’IA doit aller au-delà de lignes directrices volontaires vers des normes internationales contraignantes pour garantir que le développement de l’IA soit réellement bénéfique pour les communautés autochtones.