Relatório Alerta o Uso de IA para Alvo de Minorias e Expansão da Vigilância
Um estudo levanta preocupações sobre o uso político da IA gerativa e a fragilidade das salvaguardas.
Preocupações sobre o Uso da IA na Índia
Um relatório conjunto, divulgado dias antes da cúpula de impacto da IA na Índia, levantou sérias preocupações sobre o uso político e social da inteligência artificial no país, com referência especial ao impacto nas comunidades muçulmanas. O relatório afirma que ferramentas de IA gerativa estão sendo usadas para disseminar narrativas anti-minorias, fortalecer sistemas de vigilância e influenciar o processo eleitoral, enquanto a transparência e a regulamentação permanecem fracas.
Exemplos de Uso de IA para Propaganda Política
O relatório cita um exemplo onde um vídeo gerado por IA foi compartilhado nas redes sociais, mostrando um político atirando em dois homens muçulmanos, descrito como conteúdo inflamatório que pode representar uma ameaça à harmonia social. Especialistas alertam que o uso de IA para retratar violência contra comunidades religiosas envia uma mensagem perigosa, normalizando o ódio e criando medo entre os cidadãos.
Fragilidade das Salvaguardas
O relatório aponta lacunas nas salvaguardas dentro de sistemas populares de IA gerativa. Ferramentas amplamente utilizadas carecem de controles eficazes em relação a idiomas indianos e contextos sociais locais. Os sistemas de moderação de conteúdo muitas vezes não conseguem compreender os sinais políticos e a linguagem codificada utilizados no país, permitindo a circulação de conteúdo prejudicial.
Medidas de Vigilância
O relatório também levanta preocupações sobre medidas de vigilância, citando o desenvolvimento de uma ferramenta de IA destinada a identificar imigrantes ilegais por meio da análise de linguagem e sotaque. Especialistas linguísticos questionam a confiabilidade desse sistema, alertando que ele pode aumentar o risco de discriminação contra muçulmanos falantes de bengali na Índia.
Reconhecimento Facial e Policiamento
Outro ponto crítico é o uso da tecnologia de reconhecimento facial pelas forças policiais. O estudo afirma que há pouca informação pública sobre como esses sistemas são adquiridos e como erros são tratados. Casos de identidade equivocada podem ter consequências sérias, especialmente para minorias que já enfrentam perfilamento.
Exclusão Algorítmica em Programas de Bem-Estar
O relatório destaca problemas na entrega de serviços de bem-estar, afirmando que falhas nos sistemas de IA levaram à exclusão de beneficiários elegíveis de programas governamentais. Muitas famílias não compreendem por que seus benefícios param, e não há uma maneira clara de apelar.
Preocupações sobre o Processo Eleitoral
O estudo também toca no processo eleitoral, questionando a falta de transparência no software usado para marcar eleitores “suspeitos”. Especialistas expressam preocupação de que muçulmanos, frequentemente alvos de escrutínio em questões de cidadania, possam ser afetados se sistemas falhos forem usados na verificação de eleitores.
Recomendações para Governança da IA
O relatório conclui com várias recomendações para governos, indústrias e a sociedade civil, incluindo a formulação de políticas transparentes, revisão independente de algoritmos, forte supervisão humana e alinhamento com padrões internacionais de direitos humanos. A governança da IA deve ser enraizada em valores constitucionais e direitos iguais.
Conclusão
À medida que a cúpula de impacto da IA se aproxima, o relatório aumenta a urgência do debate sobre como a IA está sendo utilizada na Índia. Muitos cidadãos desejam justiça e garantias de que novas ferramentas não serão usadas para isolá-los.