AI systems may be fueling ‘digital colonialism’ through indigenous data extraction
Pesquisas alertam que a inteligência artificial pode estar reproduzindo padrões de exploração colonial na era digital. Sem estruturas de governança mais robustas, a IA poderia se tornar outro mecanismo pelo qual instituições poderosas extraem valor de populações marginalizadas, deixando-as excluídas dos benefícios.
O risco do extrativismo digital
Um novo estudo intitulado “Prevenindo o extrativismo da IA: o caso para entrelaçar a justiça de dados indígenas com ABS para uma governança de dados da IA mais forte” examina esse risco crescente e propõe um quadro legal e de governança para evitá-lo. A pesquisa revela que os sistemas de inteligência artificial são cada vez mais construídos com dados derivados de comunidades indígenas, sem supervisão significativa, compensação ou participação.
Os autores indicam que o desenvolvimento da IA depende de conjuntos massivos de dados que frequentemente incluem registros linguísticos indígenas, conhecimentos ecológicos, informações biométricas e dados geoespaciais. Esses recursos são frequentemente coletados de repositórios online, arquivos digitais e tecnologias de vigilância sob a suposição de que dados acessíveis publicamente são gratuitos para uso. Essa abordagem arrisca reproduzir o extrativismo colonial histórico, onde recursos valiosos foram retirados de comunidades indígenas sem consentimento e transformados em capital econômico em outro lugar.
Como a IA reproduz padrões de colonialismo digital
O estudo identifica várias áreas onde as tecnologias de IA já estão replicando padrões históricos de extração de recursos coloniais. Um exemplo notável envolve o uso de línguas indígenas em conjuntos de dados de treinamento de IA. Modelos de aprendizado de máquina projetados para reconhecimento de fala, tradução e IA conversacional dependem cada vez mais de gravações de línguas ameaçadas coletadas da internet, frequentemente sem consulta às comunidades que as produziram.
Para muitos grupos indígenas, a preservação da língua está profundamente ligada à identidade cultural e à sobrevivência histórica. As línguas que foram suprimidas por políticas coloniais estão agora sendo digitalizadas e incorporadas aos sistemas de IA sem a participação da comunidade. Os pesquisadores alertam que esse processo pode transformar o patrimônio cultural em recursos de dados comerciais controlados por corporações externas.
Outra área de preocupação é a expansão das tecnologias biométricas impulsionadas pela IA. Sistemas de reconhecimento facial, bancos de dados de impressões digitais e programas de identificação biométrica em grande escala estão se tornando centrais na infraestrutura moderna de vigilância. O estudo destaca que essas tecnologias frequentemente visam desproporcionalmente comunidades indígenas e ativistas, especialmente em contextos onde conflitos de direitos ambientais ou territoriais estão em andamento.
A necessidade de uma governança sólida da IA
Atualmente, os quadros de governança da IA não estão equipados para enfrentar os desafios éticos impostos pela extração de dados de comunidades indígenas. Embora existam acordos internacionais para regular o uso de recursos biológicos, proteções semelhantes estão amplamente ausentes no domínio digital.
Os autores chamam a atenção para a Convenção sobre Diversidade Biológica e o Protocolo de Nagoya, que regulam o acesso a recursos genéticos e conhecimentos tradicionais. Esses quadros introduziram o conceito de Acesso e Compartilhamento de Benefícios (ABS), que exige que pesquisadores e empresas obtenham consentimento antes de usar materiais biológicos e compartilhem os benefícios derivados deles.
Um modelo global proposto para a governança ética de dados da IA
Para abordar os riscos do extrativismo da IA, o estudo propõe um novo modelo de governança internacional que combina mecanismos de Acesso e Compartilhamento de Benefícios com quadros de governança de dados indígenas. Os pesquisadores descrevem essa abordagem como um modelo de governança entrelaçada, no qual princípios legais, éticos e operacionais são integrados para criar proteções mais fortes para os dados indígenas.
Esse modelo exigiria que desenvolvedores de IA obtivessem consentimento informado prévio antes de coletar ou usar dados indígenas, negociassem termos mutuamente acordados com as comunidades e garantissem que os benefícios gerados por aplicações de IA fossem distribuídos de forma justa.
O estudo reitera que a governança da IA deve ir além de diretrizes voluntárias em direção a padrões internacionais vinculativos, garantindo que empresas, governos e instituições de pesquisa sigam os mesmos padrões, independentemente de onde operem.