Il nuovo framework AI potrebbe consolidare il bias contro le minoranze, avvertono i gruppi
In vista dell’imminente AI Impact Summit 2026, un nuovo rapporto avverte che il proposto framework di governance dell’intelligenza artificiale in India, pur presentando inclusività e innovazione, potrebbe danneggiare in modo sproporzionato le minoranze religiose, le comunità Dalit e Adivasi, e le minoranze sessuali e di genere in assenza di salvaguardie vincolanti.
Analisi del rapporto
Intitolato “Governanza AI al limite del regresso democratico”, il rapporto sottolinea che la preferenza del governo per la compliance volontaria e l’auto-regolamentazione a scapito di protezioni statutarie applicabili rischia di consolidare le disuguaglianze strutturali. Le comunità emarginate spesso non hanno la capacità finanziaria e istituzionale per sfidare sistemi algoritmici opachi in tribunale.
Le linee guida sulla governance dell’AI del Ministero delle Elettronica e della Tecnologia dell’Informazione, rilasciate nel novembre 2025, rifiutano ciò che definiscono “regolamenti pesanti in termini di compliance” e affermano che una legge autonoma sull’AI non è necessaria al momento. Tuttavia, il rapporto sostiene che fare affidamento su leggi esistenti potrebbe rivelarsi inadeguato per affrontare i danni emergenti derivanti dai sistemi decisionali automatizzati.
Rischi e implicazioni
Nonostante la visione del governo di “Democratizzare l’AI e ridurre il divario dell’AI”, ancorata ai principi di “Persone, Pianeta e Progresso”, il rapporto evidenzia che le linee guida si riferiscono solo in modo vago ai “gruppi vulnerabili” e non riconoscono esplicitamente i rischi distinti affrontati da musulmani, Dalit, Adivasi e persone LGBTQIA+, lasciando così lacune critiche nelle protezioni mirate.
Il rapporto documenta anche casi in cui gli strumenti di AI generativa hanno amplificato la polarizzazione comunitaria, inclusa la circolazione di video e immagini generati dall’AI mirati alle comunità musulmane. Inoltre, il documento esprime preoccupazioni riguardo all’uso crescente dell’AI nella sorveglianza e nella polizia, notando che i progetti di polizia predittiva potrebbero replicare pregiudizi radicati nei dati storici sui crimini.
L’uso crescente della tecnologia di riconoscimento facciale nelle città è segnalato come problematico, soprattutto perché l’India non ha un quadro legale dedicato simile alla regolamentazione basata sul rischio dell’Unione Europea.
Conclusione
Il rapporto mette in evidenza i rischi di esclusione nella distribuzione dei servizi di welfare, osservando che l’autenticazione obbligatoria tramite riconoscimento facciale potrebbe colpire in modo sproporzionato i beneficiari poveri e emarginati. Sebbene venga riconosciuta l’ambizione dell’India di costruire una capacità sovrana nell’AI, gli autori concludono che, senza obblighi di trasparenza vincolanti, supervisione indipendente e protezioni esplicite per le minoranze, il modello attuale di governance potrebbe approfondire le disuguaglianze esistenti anziché democratizzare il progresso tecnologico.