Proposta de estrutura de IA pode reforçar preconceitos contra minorias, alertam grupos
Com o início da Cúpula de Impacto de IA de 2026 em Nova Délhi, um novo relatório alerta que a proposta de estrutura de governança de inteligência artificial da Índia, embora projete inclusão e inovação, pode prejudicar desproporcionalmente minorias religiosas, comunidades Dalit e Adivasi, além de minorias sexuais e de gênero, na ausência de salvaguardas vinculativas.
Desigualdades Estruturais
Intitulado “Governança de IA na Beira do Retrocesso Democrático”, o relatório argumenta que a preferência do governo da União por conformidade voluntária e autorregulação, em vez de proteções estatutárias aplicáveis, arrisca aprofundar desigualdades estruturais, especialmente porque comunidades marginalizadas frequentemente carecem da capacidade financeira e institucional para contestar sistemas algorítmicos opacos nos tribunais.
Diretrizes do Ministério e Riscos Emergentes
Embora as Diretrizes de Governança de IA do Ministério da Eletrônica e Tecnologia da Informação rejeitem o que chamam de “regulação pesada de conformidade” e afirmem que uma lei de IA independente não é necessária no momento, o relatório sustenta que a dependência de estatutos existentes, como a Lei de Tecnologia da Informação de 2000, pode ser inadequada para lidar com danos emergentes enraizados em sistemas de tomada de decisão automatizados.
Riscos para Grupos Vulneráveis
A visão do governo para a cúpula, que visa “Democratizar a IA e Reduzir a Divisão da IA”, enfatiza o crescimento tecnológico inclusivo, mas o relatório argumenta que as diretrizes referem-se apenas de maneira geral a “grupos vulneráveis” e não reconhecem explicitamente os riscos distintos enfrentados por muçulmanos, Dalits, Adivasis e pessoas LGBTQIA+, deixando lacunas críticas em proteções direcionadas.
Polarização e Vigilância
O relatório documenta casos em que ferramentas de IA gerativa amplificaram a polarização comunitária, incluindo a circulação de vídeos e imagens gerados por IA que visavam comunidades muçulmanas e líderes da oposição. Além dos danos online, são levantadas preocupações sobre o uso crescente de IA na polícia e na vigilância, notando que pilotos de policiamento preditivo podem replicar preconceitos enraizados em dados históricos de criminalidade.
Reconhecimento Facial e Entregas de Bem-Estar
O uso crescente de tecnologia de reconhecimento facial em várias cidades é destacado como preocupante, especialmente porque a Índia carece de um quadro legal dedicado que restrinja a identificação biométrica em tempo real em espaços públicos. Além disso, a autenticação obrigatória por reconhecimento facial em programas de assistência social pode afetar desproporcionalmente beneficiários pobres e marginalizados em caso de falhas técnicas.
Conclusão
Ainda que a Índia aspire a construir uma capacidade soberana de IA, o relatório conclui que, sem obrigações de transparência vinculativas, supervisão independente e proteções explícitas para minorias, o modelo de governança atual pode aprofundar as desigualdades existentes em vez de democratizar o progresso tecnológico.