Rapporto sulle preoccupazioni per l’uso dell’IA contro le minoranze e l’espansione della sorveglianza
Uno studio solleva preoccupazioni riguardo all’uso politico dell’IA generativa e alla mancanza di protezioni adeguate. Un rapporto congiunto, rilasciato poco prima del vertice sull’impatto dell’IA in India, ha evidenziato gravi preoccupazioni sull’uso sociale e politico dell’intelligenza artificiale, con particolare riferimento all’impatto sulle comunità musulmane.
Uso politico e sociale dell’IA
Il rapporto afferma che gli strumenti di IA generativa vengono utilizzati per diffondere narrazioni anti-minoritarie, rafforzare i sistemi di sorveglianza e influenzare il processo elettorale, mentre la trasparenza e la regolamentazione rimangono deboli. Viene citato un esempio in cui un video generato dall’IA è stato condiviso sui social media, mostrando atti di violenza contro uomini musulmani, descritto come contenuto infiammatorio che rappresenta una minaccia all’armonia sociale.
Preoccupazioni per la sorveglianza
Il rapporto solleva anche preoccupazioni riguardo alle misure di sorveglianza, menzionando lo sviluppo di uno strumento di IA per identificare presunti immigrati illegali. Esperti hanno messo in dubbio l’affidabilità di tali sistemi, che potrebbero aumentare il rischio di discriminazione.
Riconoscimento facciale e applicazione della legge
Un’altra preoccupazione chiave riguarda l’uso della tecnologia di riconoscimento facciale da parte delle forze di polizia. Il rapporto segnala che ci sono poche informazioni pubbliche sulla precisione di tali sistemi e sulle modalità di gestione degli errori, avvertendo che le identità errate possono avere gravi conseguenze, specialmente per le minoranze.
Esclusione algoritmica nei programmi di welfare
Il rapporto evidenzia anche problemi nella distribuzione dei servizi di welfare, affermando che difetti nei sistemi di IA hanno portato all’esclusione di beneficiari idonei da programmi governativi, creando confusione e difficoltà per le famiglie vulnerabili.
Rischi per il processo elettorale
Il documento solleva interrogativi sulla mancanza di trasparenza nei software utilizzati per contrassegnare i “votanti sospetti”. La mancanza di chiarezza su come vengono segnalati gli elettori e sui meccanismi di verifica dei dati rappresenta un rischio per i diritti di voto.
Raccomandazioni per il futuro
Alla fine del rapporto, vengono presentate raccomandazioni per i governi, l’industria e la società civile, tra cui la creazione di politiche trasparenti, la revisione indipendente degli algoritmi e l’allineamento con standard internazionali sui diritti umani. La governance dell’intelligenza artificiale dovrebbe servire le persone, non mirare a colpirle.
Le preoccupazioni espresse nel rapporto hanno reso l’argomento urgente in vista del vertice sull’impatto dell’IA, sottolineando la necessità di garantire che la tecnologia non venga utilizzata per discriminare, ma piuttosto per promuovere equità e diritti fondamentali.