Nuove Regole sul Labeling dei Contenuti AI in Italia

Cosa ha stabilito il governo sull’etichettatura dell’IA?

La storia finora: Il Ministero dell’Elettronica e della Tecnologia dell’Informazione ha notificato una modifica alle Regole IT, 2021, che richiederà agli utenti e alle piattaforme di social media di etichettare i contenuti generati dall’IA e di stringere i tempi di rimozione per tutti i contenuti — non solo per i post generati dall’IA — da 24-36 ore a due o tre ore. Le nuove regole entreranno in vigore il 20 febbraio.

Cosa sono i contenuti generati dall’IA?

Le Regole di Modifica del Codice Etico dei Media Digitali richiedono alle piattaforme di social media di etichettare “in modo prominente” i contenuti “sinteticamente generati”, ovvero immagini e video generati dall’IA. Questa richiesta è stata proposta per la prima volta nell’ottobre dell’anno scorso e notificata questa settimana. Le piattaforme di social media con più di cinque milioni di utenti devono ottenere una “dichiarazione dell’utente per i contenuti generati dall’IA” e “condurre una verifica tecnica prima di pubblicare contenuti generati dall’IA”.

Il Ministero ha affermato che questa richiesta è stata introdotta per contrastare “deepfake, disinformazione e altri contenuti illeciti in grado di ingannare gli utenti, causando danni, violando la privacy o minacciando l’integrità nazionale”, e che è importante che gli utenti siano consapevoli se ciò che stanno visualizzando è autentico o meno.

La definizione di “Informazioni Sinteticamente Generate” era inizialmente più ampia, comprendendo qualsiasi contenuto audiovisivo modificato o generato dall’IA. Le regole finali prevedono alcune eccezioni: ad esempio, le foto scattate con smartphone che vengono ritoccate automaticamente dall’app della fotocamera non saranno considerate SGI, e gli effetti speciali nei film non richiederanno etichettatura. Le regole proibiscono anche determinati tipi di SGI: materiali di sfruttamento e abuso sessuale di minori, documenti falsificati, informazioni sullo sviluppo di esplosivi e deepfake che rappresentano falsamente una persona reale.

Come possono essere rilevati i contenuti generati dall’IA?

Il governo ha chiesto alle grandi piattaforme di “implementare misure tecniche ragionevoli e appropriate per prevenire SGI illeciti e garantire requisiti di etichettatura/provenienza/identificazione per SGI consentiti”. Un funzionario senior del Ministero ha sostenuto che le grandi piattaforme dispongono di strumenti sofisticati per rilevare SGI, e che questa richiesta richiede loro semplicemente di eseguire rilevamenti che già effettuano. Inoltre, alcune aziende e piattaforme di IA hanno partecipato alla Coalizione per la Provenienza e l’Autenticità dei Contenuti, che offre standard tecnici per etichettare invisibilmente i contenuti generati dall’IA in un modo che può essere letto da altre piattaforme, nel caso in cui il rilevamento basato sull’IA fallisca.

Come sono cambiati i termini di tempo?

Le Regole IT consentono ad alcune autorità governative e funzionari di polizia di emettere richieste di rimozione. Per le richieste di rimozione sia governative che emesse da un tribunale, i termini sono stati ridotti a 2-3 ore, mentre per tutte le altre categorie di reclami da parte degli utenti, i tempi di risposta sono stati ridotti da due settimane a una settimana. I termini per rispondere ai rapporti degli utenti su contenuti “sensibili” sono stati anche ridotti da 72 ore a 36 ore. Il governo ha motivato questa revisione affermando che i limiti precedenti consentivano troppi danni anche all’interno di quei termini, rendendo necessaria una revisione dei tempi di azione delle piattaforme.

Quali altre modifiche sono state apportate?

Gli utenti dovranno ora ricevere un promemoria più frequentemente sui termini e le condizioni delle piattaforme. Le modifiche includono revisioni che aumentano la frequenza delle notifiche agli utenti da una volta all’anno a almeno una volta ogni 3 mesi e ampliano il contenuto di tali notifiche per chiarire le conseguenze potenziali di non conformità e le obbligazioni di segnalazione.

Le regole richiedono anche alle piattaforme di avvisare specificamente gli utenti che contenuti dannosi generati dall’IA possono esporli ad azioni legali, inclusa la divulgazione della loro identità alle agenzie di legge e la “disabilitazione immediata dell’accesso o rimozione di tali contenuti, sospensione o terminazione degli account utente”.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...