Cosa ha stabilito il governo sull’etichettatura dell’IA?
La storia finora: Il Ministero dell’Elettronica e della Tecnologia dell’Informazione ha notificato una modifica alle Regole IT, 2021, che richiederà agli utenti e alle piattaforme di social media di etichettare i contenuti generati dall’IA e di stringere i tempi di rimozione per tutti i contenuti — non solo per i post generati dall’IA — da 24-36 ore a due o tre ore. Le nuove regole entreranno in vigore il 20 febbraio.
Cosa sono i contenuti generati dall’IA?
Le Regole di Modifica del Codice Etico dei Media Digitali richiedono alle piattaforme di social media di etichettare “in modo prominente” i contenuti “sinteticamente generati”, ovvero immagini e video generati dall’IA. Questa richiesta è stata proposta per la prima volta nell’ottobre dell’anno scorso e notificata questa settimana. Le piattaforme di social media con più di cinque milioni di utenti devono ottenere una “dichiarazione dell’utente per i contenuti generati dall’IA” e “condurre una verifica tecnica prima di pubblicare contenuti generati dall’IA”.
Il Ministero ha affermato che questa richiesta è stata introdotta per contrastare “deepfake, disinformazione e altri contenuti illeciti in grado di ingannare gli utenti, causando danni, violando la privacy o minacciando l’integrità nazionale”, e che è importante che gli utenti siano consapevoli se ciò che stanno visualizzando è autentico o meno.
La definizione di “Informazioni Sinteticamente Generate” era inizialmente più ampia, comprendendo qualsiasi contenuto audiovisivo modificato o generato dall’IA. Le regole finali prevedono alcune eccezioni: ad esempio, le foto scattate con smartphone che vengono ritoccate automaticamente dall’app della fotocamera non saranno considerate SGI, e gli effetti speciali nei film non richiederanno etichettatura. Le regole proibiscono anche determinati tipi di SGI: materiali di sfruttamento e abuso sessuale di minori, documenti falsificati, informazioni sullo sviluppo di esplosivi e deepfake che rappresentano falsamente una persona reale.
Come possono essere rilevati i contenuti generati dall’IA?
Il governo ha chiesto alle grandi piattaforme di “implementare misure tecniche ragionevoli e appropriate per prevenire SGI illeciti e garantire requisiti di etichettatura/provenienza/identificazione per SGI consentiti”. Un funzionario senior del Ministero ha sostenuto che le grandi piattaforme dispongono di strumenti sofisticati per rilevare SGI, e che questa richiesta richiede loro semplicemente di eseguire rilevamenti che già effettuano. Inoltre, alcune aziende e piattaforme di IA hanno partecipato alla Coalizione per la Provenienza e l’Autenticità dei Contenuti, che offre standard tecnici per etichettare invisibilmente i contenuti generati dall’IA in un modo che può essere letto da altre piattaforme, nel caso in cui il rilevamento basato sull’IA fallisca.
Come sono cambiati i termini di tempo?
Le Regole IT consentono ad alcune autorità governative e funzionari di polizia di emettere richieste di rimozione. Per le richieste di rimozione sia governative che emesse da un tribunale, i termini sono stati ridotti a 2-3 ore, mentre per tutte le altre categorie di reclami da parte degli utenti, i tempi di risposta sono stati ridotti da due settimane a una settimana. I termini per rispondere ai rapporti degli utenti su contenuti “sensibili” sono stati anche ridotti da 72 ore a 36 ore. Il governo ha motivato questa revisione affermando che i limiti precedenti consentivano troppi danni anche all’interno di quei termini, rendendo necessaria una revisione dei tempi di azione delle piattaforme.
Quali altre modifiche sono state apportate?
Gli utenti dovranno ora ricevere un promemoria più frequentemente sui termini e le condizioni delle piattaforme. Le modifiche includono revisioni che aumentano la frequenza delle notifiche agli utenti da una volta all’anno a almeno una volta ogni 3 mesi e ampliano il contenuto di tali notifiche per chiarire le conseguenze potenziali di non conformità e le obbligazioni di segnalazione.
Le regole richiedono anche alle piattaforme di avvisare specificamente gli utenti che contenuti dannosi generati dall’IA possono esporli ad azioni legali, inclusa la divulgazione della loro identità alle agenzie di legge e la “disabilitazione immediata dell’accesso o rimozione di tali contenuti, sospensione o terminazione degli account utente”.