Rapporto Congiunto: Summit sull’Impatto dell’IA in India 2026: Governance dell’IA ai Confini del Declino Democratico
Con l’India pronta ad ospitare il Summit sull’Impatto dell’IA nel 2026, il primo summit globale sull’IA nel Sud Globale, è stato rilasciato un rapporto politico che esamina il netto distacco tra la retorica ufficiale dell’IA in India e la realtà dell’odio, della discriminazione, della sorveglianza, della repressione e della violenza abilitata dall’IA nei confronti delle comunità minoritarie e marginalizzate, che si verifica in un contesto generale di declino democratico.
Contesto e Preoccupazioni
Il rapporto documenta come gli strumenti di IA generativa siano stati utilizzati come armi, incluso dal partito al governo, per demonizzare e disumanizzare le minoranze religiose. Inoltre, i sistemi di IA opachi impiegati dallo stato stanno abilitando la sorveglianza di massa, l’esclusione dai servizi essenziali e la cancellazione degli elettori dai registri elettorali.
Il rapporto arriva mentre leader globali, dirigenti tecnologici e rappresentanti della società civile si riuniscono in India per un summit ufficialmente incentrato sulla “Democratizzazione dell’IA e sulla Riduzione del Divario IA”. Tuttavia, rivela un preoccupante schema di utilizzo dell’IA che mina i diritti democratici e prende di mira le comunità vulnerabili.
Utilizzo dell’IA per la Discriminazione e la Sorveglianza
Il governo e i suoi emissari hanno utilizzato contenuti generati dall’IA sui propri profili social ufficiali per diffondere contenuti divisivi e disumanizzanti contro le minoranze. Un video AI generato dalla sezione Assam del partito al governo mostra il ministro capo che spara a due uomini visibilmente musulmani, intitolato “Nessuna Pietà”.
Le forze dell’ordine in diversi stati stanno impiegando tecnologie di riconoscimento facciale, algoritmi di polizia predittiva e sistemi di sorveglianza potenziati dall’IA senza supervisione indipendente, autorizzazione giudiziaria o trasparenza. Inoltre, è stato annunciato lo sviluppo di uno strumento di IA per rilevare presunti immigrati bengalesi e rifugiati rohingya, analizzando modelli di linguaggio e uso linguistico, il che potrebbe diventare uno strumento di discriminazione contro le comunità musulmane di lingua bengalese e i lavoratori migranti a basso reddito.
Linee Guida sulla Governance dell’IA
Le linee guida sulla governance dell’IA pubblicate nel novembre 2025 favoriscono l’auto-regolamentazione volontaria rispetto a meccanismi di responsabilità vincolanti, affermando che “tutte le altre cose essendo uguali, l’innovazione responsabile dovrebbe essere prioritizzata rispetto alla cautela”. Sebbene le linee guida riconoscano la necessità di proteggere i gruppi vulnerabili, non affrontano i danni specifici subiti dalle minoranze religiose e da altre comunità emarginate.
Richieste per la Regolamentazione
Le organizzazioni invitano i leader globali presenti al summit a richiedere e impegnarsi per una regolamentazione rispettosa dei diritti, con obblighi chiari lungo la catena del valore dell’IA, a proibire l’uso dell’IA per la sorveglianza di massa e la polizia predittiva, a richiedere trasparenza e supervisione indipendente per tutte le implementazioni di IA nel settore pubblico, e a centrare le voci delle comunità colpite nelle discussioni sulla governance dell’IA.
È urgente riconoscere la necessità di una regolamentazione robusta per affrontare i danni derivanti dalla progettazione, dallo sviluppo e dall’implementazione dei sistemi di IA.