India stabilisce una scadenza di 3 ore per le piattaforme social per rimuovere contenuti generati da AI e deepfake
Il governo indiano ha ordinato alle piattaforme di social media di etichettare chiaramente tutti i contenuti generati da intelligenza artificiale (AI) e di garantire che tali materiali sintetici contengano identificatori incorporati, secondo un ordine ufficiale.
Misure di applicazione più severe
In un’azione di enforcement più rigorosa, il governo ha fissato una scadenza di tre ore per le aziende di social media per rimuovere contenuti generati da AI o deepfake una volta segnalati dal governo o ordinati da un tribunale. Le piattaforme sono state anche vietate dal rimuovere o sopprimere le etichette AI o i metadati associati una volta applicati.
Strumenti automatizzati per la rilevazione
Per limitare l’abuso, le aziende dovranno implementare strumenti automatizzati per rilevare e prevenire la circolazione di contenuti generati da AI illegali, sessualmente esploitativi o ingannevoli. Inoltre, le piattaforme devono avvisare regolarmente gli utenti sulle conseguenze di violazioni relative all’abuso di AI, con avvisi da emettere almeno una volta ogni tre mesi.
Preoccupazioni crescenti e regolamenti proposti
Le ultime direttive arrivano in un contesto di crescente preoccupazione per la diffusione di deepfake basati su AI online e si basano su emendamenti proposti il mese scorso dal Ministero dell’Elettronica e della Tecnologia dell’Informazione. Le nuove regole cercano di obbligare gli utenti a dichiarare quando pubblicano contenuti generati o modificati da AI e richiedono alle piattaforme di adottare tecnologie per verificare tali dichiarazioni.
Funzionalità già implementate
Le piattaforme di social media hanno già implementato funzionalità che consentono agli utenti di etichettare contenuti come generati o modificati tramite intelligenza artificiale. L’attenzione iniziale del governo sarà rivolta ai principali intermediari di social media con cinque milioni o più utenti registrati in India.
Attualmente, alcune piattaforme, come YouTube, richiedono ai creatori di divulgare contenuti “significativamente alterati” o generati sinteticamente in casi specifici, mentre altre come Meta hanno diretto gli utenti a etichettare contenuti contenenti audio e visivi fotorealistici generati digitalmente.