AI Office Pubblica il Primo Codice di Pratica sulla Trasparenza dei Contenuti Generati da AI
L’Ufficio dell’UE per l’AI ha pubblicato la sua prima bozza del Codice di pratica sulla trasparenza dei contenuti generati da AI, fornendo linee guida volontarie per la marcatura e l’etichettatura delle uscite dell’AI (audio, immagine, video o testo). Questo codice garantisce che gli utenti sappiano quando i contenuti sono stati generati o manipolati da AI, in applicazione delle obbligazioni stabilite dall’articolo 50 della Legge sull’AI, che entrerà in vigore ad agosto 2026.
Obblighi dei Fornitori di Sistemi AI
Marcatura: I fornitori di sistemi AI devono garantire che le uscite siano contrassegnate in un formato leggibile dalla macchina e identificabile come artificialmente generate o manipolate. I contenuti generati o manipolati da AI devono essere contrassegnati con un watermark impercettibile.
Rilevamento: Per rendere le uscite individuabili, i fornitori devono consentire il rilevamento da parte degli utenti e di terze parti, fornendo gratuitamente un’interfaccia o un rilevatore pubblico per verificare se un contenuto è stato generato o manipolato dai loro sistemi AI. Questi meccanismi devono essere mantenuti per tutto il ciclo di vita del sistema e del modello.
Obblighi dei Deployers di Sistemi AI
Gli obblighi dei deployers sono complementari alle soluzioni tecniche implementate dai fornitori e contribuiscono ad aumentare la trasparenza lungo la catena del valore dell’AI. I deployers di un sistema AI che genera o manipola testo destinato a informare il pubblico su questioni di interesse devono divulgare che il contenuto è stato generato o manipolato da AI.
Devono identificare i contenuti generati e manipolati da AI posizionando un’icona comune in un luogo visibile e coerente. Questa icona non è ancora sviluppata e, fino a quando non sarà disponibile, i deployers possono utilizzare un’icona provvisoria.
Misure Specifiche per il Deepfake
Per i video deepfake in tempo reale, i deployers devono visualizzare l’icona in modo non intrusivo durante l’esposizione. Per i video non in tempo reale, possono inserire un disclaimer all’inizio dell’esposizione o posizionare l’icona in un luogo fisso appropriato.
Per le immagini deepfake, i firmatari devono posizionare l’icona in modo coerente in qualsiasi esposizione. L’audio deepfake dovrà includere un breve disclaimer udibile, in linguaggio semplice, che dichiara l’origine artificiale dell’audio.
Misure Specifiche per il Testo Generato o Manipolato da AI
Per il testo generato o manipolato da AI pubblicato con l’intento di informare il pubblico, l’icona deve essere visualizzata in una posizione fissa, chiara e distinguibile.
In sintesi, il Codice di pratica mira a garantire che i contenuti generati da AI siano chiaramente identificabili, migliorando la trasparenza e la fiducia degli utenti nei sistemi AI.