Quali sono i rischi e le sfide associate ai contenuti generati dall’IA e come rispondono le giurisdizioni?
L’impennata dell’IA generativa ha offuscato i confini tra contenuto autentico e sintetico, creando rischi sociali, specialmente con deepfake realistici. Questa erosione della fiducia sta spingendo le giurisdizioni, come l’UE, a introdurre normative sulla trasparenza dell’IA.
La filigrana, i contrassegni leggibili da macchina e le divulgazioni visibili stanno emergendo come meccanismi chiave per combattere questi rischi. Tuttavia, esistono incentivi contrastanti, poiché i fornitori potrebbero voler offrire agli utenti la possibilità di creare contenuti senza segni di artificialità. Il collasso del modello, in cui l’addestramento su dati sintetici degrada la qualità dell’IA, aggiunge un ulteriore livello di complessità. Anche le piattaforme di social media devono affrontare la responsabilità per la distribuzione di contenuti dannosi generati dall’IA.
L’AI Act dell’UE impone due principali misure di salvaguardia:
- Filigrane leggibili da macchina che facilitano il rilevamento di contenuti generati o manipolati.
- Divulgazioni visibili dei deepfake per rivelare esplicitamente la loro origine artificiale.
La non conformità comporta sanzioni sostanziali, fino a 15 milioni di euro o al 3% del fatturato globale. Le regole si applicheranno dal 1° agosto 2026. Nonostante le buone intenzioni, permangono ambiguità sull’allocazione della responsabilità all’interno della catena di approvvigionamento dell’IA e le definizioni (come “deepfake”) necessitano di chiarimenti.
Sfide e rischi chiave:
- Erosione della fiducia: La facilità di creare contenuti sintetici convincenti mina la fiducia nei media e nelle fonti di informazione.
- Incentivi contrastanti: I fornitori di IA bilanciano la soddisfazione dei desideri dei clienti per una creatività illimitata con le esigenze sociali di trasparenza.
- Collasso del modello: L’addestramento dell’IA su contenuti generati dall’IA che degrada la qualità del modello è una seria preoccupazione per gli sviluppatori di IA.
- Responsabilità: Le piattaforme di social media affrontano una maggiore pressione per gestire e segnalare i deepfake, il che porta a preoccupazioni di responsabilità.
- Ambiguità nei regolamenti: L’AI Act necessita di linee guida più chiare sull’applicazione dei requisiti di filigrana e divulgazione, soprattutto in catene di approvvigionamento dell’IA complesse.
Quali sono le idee centrali della supply chain dell’IA generativa?
Il panorama dell’IA generativa, in particolare nei sistemi text-to-image, coinvolge una complessa supply chain con passaggi interconnessi e diversi partecipanti. Una visione semplificata identifica quattro attori principali:
- Sviluppatori di modelli di base: Creano i modelli IA fondamentali, che richiedono enormi quantità di dati e risorse di calcolo. Esempi includono OpenAI (DALL-E 3) e Stability AI (Stable Diffusion).
- Sviluppatori downstream: Perfezionano i modelli di base per applicazioni specifiche (ad es. stili artistici). Possono distribuire questi modelli a pagamento o tramite piattaforme open source (ad es. Juggernaut XL).
- Fornitori di sistemi: Trasformano i modelli in sistemi funzionanti con interfacce utente (web, mobile, desktop). Spesso offrono accesso agli utenti finali (deployer) ma possono implementare diversi gradi di condivisione e integrazione.
- Deployer di sistemi: Implementano sistemi di IA per gli utenti finali. In molti casi, il fornitore del sistema funge anche da deployer.
Preoccupazioni normative e l’AI Act dell’UE
L’AI Act dell’UE introduce requisiti di trasparenza per l’IA generativa, in particolare in merito alla filigrana e alla divulgazione di contenuti generati dall’IA (in particolare i deep fake). L’articolo 50 prevede:
- Marcature leggibili dalla macchina negli output generati dall’IA per il rilevamento automatico di contenuti sintetici. Queste marcature devono essere efficaci, interoperabili, robuste e affidabili. Ciò può essere ottenuto attraverso filigrane, ID di metadati, metodi crittografici, registrazione o tecniche di fingerprinting.
- Divulgazione visibile che il contenuto è stato generato o manipolato artificialmente, soprattutto quando si tratta di un “deep fake”, che l’AI Act definisce come contenuto generato dall’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente a una persona come autentico o veritiero. Queste informazioni devono essere presentate chiaramente al punto del primo contatto.
Le normative si applicano ai sistemi di IA (app, strumenti web), non solo ai modelli sottostanti. La non conformità può comportare sanzioni fino a 15 milioni di euro o al 3% del fatturato annuo globale. Queste regole entrano in vigore il 1° agosto 2026.
Implicazioni pratiche e sfide di implementazione
L’AI Act introduce complessità nell’assegnazione delle responsabilità lungo la supply chain. Non è sempre chiaro se l’onere della conformità sia distribuito in modo appropriato, ad esempio per i modelli di IA abilitati tramite API.
Gli scenari di implementazione possono variare, risultando in diversi approcci alla filigrana. Il documento identifica 4 di questi scenari:
- Sistemi integrati end-to-end
- Sistemi che utilizzano l’accesso al modello API
- Sistemi open-source implementati su Hugging Face
- Sistemi che utilizzano altri modelli (open-source) con il proprio marchio
La marcatura visibile *solo* dei deep fake è un altro ostacolo pratico ai sensi dell’AI Act. Per indirizzare accuratamente i deep fake, i fornitori hanno bisogno di soluzioni separate basate sulla NLP per la classificazione dei prompt. Ciò solleva preoccupazioni, soprattutto per le organizzazioni più piccole.
L’implementazione di meccanismi di conformità efficaci comporta sfide nella verifica della “non verità” (rilevamento di contenuti generati dall’IA) e nella garanzia di soluzioni robuste e interoperabili. Dato il crescente numero di strumenti di generazione di immagini AI, i metodi di ispezione automatizzata della conformità e le soluzioni di terze parti saranno essenziali per un’applicazione efficace.
In che modo l’EU AI Act affronta la filigrana e la divulgazione per i contenuti generati dall’IA?
L’EU AI Act, la cui entrata in vigore è prevista a partire dal 1° agosto 2026, introduce obblighi chiave di trasparenza per i sistemi di IA generativa, in particolare per quanto riguarda la filigrana e la divulgazione.
Requisiti legali
- Filigrana leggibile dalla macchina: l’articolo 50(2) impone ai fornitori di sistemi di IA generativa di garantire che i loro output siano contrassegnati in un formato leggibile dalla macchina, rilevabile come generati o manipolati artificialmente. L’Atto sottolinea che le soluzioni tecniche devono essere efficaci, interoperabili, robuste e affidabili.
- Divulgazione visibile per i Deep Fake: l’articolo 50(4) richiede ai responsabili dell’implementazione di sistemi di IA generativa di rivelare quando generano o manipolano contenuti di immagini, audio o video che costituiscono un “deep fake”. Questa divulgazione deve essere chiara e distinguibile al momento della prima interazione o esposizione.
Le normative non specificano i metodi esatti per implementare le divulgazioni visibili, ma sottolineano la necessità di un’etichetta chiara all’interno dell’output generato dall’IA stesso, piuttosto che un messaggio separato. Le sanzioni per la mancata conformità possono raggiungere i 15 milioni di euro o il 3% del fatturato annuo globale.
Ambiguità e sfide di implementazione
Il linguaggio dell’AI Act lascia spazio all’interpretazione, in particolare per quanto riguarda l’attribuzione della responsabilità lungo la complessa catena di fornitura dell’IA generativa. Anche la definizione di “deep fake” presenta delle sfide.
Ambito limitato per gli sviluppatori di modelli
I requisiti di trasparenza si applicano specificamente ai sistemi di IA (ad esempio, app o strumenti web), non ai modelli di base che li supportano.
Sebbene la seconda bozza del codice di condotta per i modelli GPAI includa l’impegno per i fornitori di modelli GPAI con rischi sistemici di utilizzare metodi come le filigrane per identificare e segnalare incidenti relativi all’uso del loro modello.
Esenzioni
In particolare, i fornitori di sistemi di IA rilasciati con licenze gratuite e open source non sono esenti da questi requisiti di trasparenza ai sensi dell’articolo 50 dell’AI Act, a differenza di alcune altre sezioni. Questo è fondamentale per l’implementazione dell’Atto in tutto l’ecosistema.
Quale metodologia è stata utilizzata per analizzare l’implementazione pratica della filigrana?
Per valutare l’adozione reale delle pratiche di filigrana e divulgazione, è stato impiegato un approccio multiforme, analizzando 50 sistemi di intelligenza artificiale generativa ampiamente utilizzati.
Selezione dei sistemi di IA
È stata curata una selezione diversificata di 50 sistemi di IA generativa basata su diversi modelli di business e canali di distribuzione, rispecchiando le quattro categorie di implementazione: sistemi integrati end-to-end, sistemi che utilizzano l’accesso al modello tramite API, sistemi open source implementati su Hugging Face e sistemi che utilizzano altri modelli (open source) con il proprio marchio. I sistemi nella categoria 1 sono stati selezionati filtrando la tabella dell’ecosistema Stanford Foundation Models [26] e selezionando le organizzazioni che offrono strumenti di generazione di immagini gratuiti utilizzando i propri modelli fondamentali. I sistemi nella categoria 3 sono stati selezionati filtrando la sezione “modello” di Hugging Face sui cinque modelli open source di generazione di testo-immagine più scaricati che offrivano lo strumento widget API di Hugging Face [21]. I sistemi basati su app web e mobili delle categorie 2 e 4 sono stati selezionati utilizzando la query di ricerca “AI image generation” nell’Apple App Store e nella Ricerca Google. Sono stati inclusi i primi 14 sistemi di ciascuna modalità (28 in totale) che offrivano la generazione di testo-immagine gratuita (se necessario: utilizzando un account o iniziando una prova gratuita).
Generazione di immagini
Per ciascun sistema selezionato, sono state generate almeno due immagini. Sono state utilizzate impostazioni standard con un prompt neutro (“Uno studente di dottorato”) e un prompt potenzialmente rischioso di “deep fake” (“Una bellissima fotografia deep fake di Donald Trump al McDonald’s”). L’obiettivo era valutare se le filigrane venissero applicate specificamente ai contenuti contrassegnati come potenziali deepfake. Le immagini generate sono state archiviate dall’opzione “salva” o “scarica” nell’interfaccia del sistema.
Rilevamento di filigrana e divulgazione
Le metriche di valutazione si sono concentrate sui contrassegni leggibili dalla macchina e sulle divulgazioni visibili. È stata utilizzata una combinazione di tecniche, come delineato di seguito, per identificarne l’adozione:
- Analisi della documentazione: la documentazione del sistema (descrizioni delle app, FAQ, termini di utilizzo, politiche sulla privacy e file ReadMe) è stata esaminata per identificare eventuali divulgazioni relative a filigrana, utilizzo dei metadati o pratiche di impronte digitali.
- Analisi del codice: per i sistemi open source (principalmente categorie 2 e 3), le pagine di informazioni sui modelli e il codice sorgente su Hugging Face e GitHub sono stati ispezionati per individuare menzioni di librerie di filigrana, strumenti di rilevamento o modifiche dei metadati.
- Ispezione dell’immagine:
Sono stati sfruttati strumenti per esaminare le immagini generate:
- Metadati: è stato utilizzato uno strumento online di ispezione dei metadati per estrarre e analizzare i metadati dagli standard EXIF, IPTC e XMP, alla ricerca di menzioni di generazione di IA.
- Filigrana: se le soluzioni di filigrana e gli strumenti di rilevamento sono stati trovati nella documentazione o nell’analisi del codice, lo strumento di rilevamento corrispondente è stato applicato alle immagini. Sono stati utilizzati strumenti di rilevamento pubblici per la filigrana di Google [28] e la libreria di filigrana open source utilizzata da Stability AI e Black Forest Labs [10, 48, 51]. È stato creato un algoritmo per eseguire i suddetti strumenti di rilevamento pubblici su tutte le immagini generate.
- Impronte digitali: è stata analizzata la specifica tecnica C2PA, uno standard industriale per la provenienza [25, 43]. Lo strumento di rilevamento C2PA è stato utilizzato per verificare la presenza di un’impronta digitale, l’incorporamento di metadati o una filigrana.
- Ispezioni manuali: i controlli manuali hanno verificato le filigrane visibili e le divulgazioni che indicano contenuti generati dall’IA sia su prompt neutri che su prompt deep fake. L’attenzione si è concentrata sul fatto che i contrassegni visibili fossero limitati ai deep fake, non sul giudicare se le immagini si qualificassero come un “deep fake”.
Quali sono i principali risultati dell’analisi empirica sulle pratiche di watermarking?
La nostra indagine su 50 sistemi di intelligenza artificiale generativa ampiamente utilizzati rivela un panorama ancora nelle sue fasi iniziali per quanto riguarda l’adozione del watermarking, specialmente mentre ci avviciniamo alla data di entrata in vigore dell’AI Act dell’UE nell’agosto 2026. Lo studio mirava principalmente non a valutare la conformità attuale, ma a delineare lo stato del watermarking leggibile dalla macchina e delle soluzioni di divulgazione visibile, e gli ostacoli all’implementazione e all’applicazione delle normative ad essi correlate.
Ecco i risultati chiave:
- Implementazione Limitata di Watermark Leggibili Dalla Macchina: Solo una minoranza di sistemi (18 su 50) include una qualche forma di watermark leggibile dalla macchina.
- L’Incorporazione di Metadati è Comune, Ma Non Robusta: Sebbene i metadati siano il metodo più frequentemente utilizzato, sono facilmente rimovibili, rendendola una soluzione meno robusta. Dieci sistemi hanno utilizzato questo approccio.
- I Watermark Nascosti Sono Rari: Sofisticate tecniche di watermarking nascosto si trovano solo in un piccolo sottoinsieme di sistemi (6).
- Anche le Divulgazioni Visibili Sono Rare: Solo 8 sistemi su 50 hanno utilizzato watermark visibili o altre soluzioni di divulgazione incorporate all’interno dell’immagine per indicare la sua natura generata dall’IA.
- I Sistemi End-to-End Guidano L’Implementazione: Le soluzioni di marcatura leggibili dalla macchina sono più prevalenti tra i fornitori end-to-end (categoria 1) e i fornitori su larga scala (categoria 2). Molti di questi sono anche operatori di piattaforme di social/digital media o motori di ricerca (Meta, Google, Adobe, Canva, Microsoft).
Questi risultati indicano uno scenario da “Far West” in cui protezioni robuste non vengono applicate in modo uniforme.
L’Ecosistema è Concentrato
Esiste una notevole concentrazione nell’ecosistema dell’IA. Un piccolo numero di fornitori di modelli avanzati (open-source) influenza significativamente il campo. Molti fornitori di sistemi si affidano a modelli di base o a versioni ottimizzate da poche fonti (ad esempio, Stability AI, Black Forest Labs e OpenAI). Sebbene possano incorporare soluzioni, queste possono essere facilmente disabilitate o applicate in modo incoerente.
Sfide nel Limitare ai Deep Fake
Applicare divulgazioni visibili specificamente alle immagini deep fake pone delle sfide. I fornitori avrebbero bisogno di un sistema sofisticato per classificare i prompt come deep fake, cosa che può essere difficile per le organizzazioni più piccole. Le divulgazioni visibili non sono ancora utilizzate nella maggior parte dei casi.
Preoccupazioni Sulla Conformità A Lungo Termine
La varietà di tecniche di marcatura e l’aumento dei sistemi che utilizzano modelli di altri (categorie 2, 3 e 4) richiedono metodi di ispezione automatizzati della conformità. Questi devono integrare vari meccanismi di rilevamento per garantire un’efficace applicazione quando l’AI Act entrerà in vigore.
Quali limitazioni sono associate all’indagine?
È essenziale riconoscere diverse limitazioni e vincoli nella nostra analisi.
Innanzitutto, esiste la possibilità che non siamo riusciti a identificare determinate tecniche di watermarking e digital fingerprinting utilizzate nella pratica. Abbiamo fatto del nostro meglio per trovare eventuali divulgazioni di watermarking dalla documentazione dei fornitori dei sistemi, ma c’è la possibilità che non le abbiano divulgate e abbiano utilizzato tecniche non standard che non abbiamo verificato.
In secondo luogo, sebbene abbiamo utilizzato prompt che consideriamo chiaramente deep fake, ammettiamo che la definizione di deep fake potrebbe essere oggetto di dibattito.
Infine, alcuni sistemi di intelligenza artificiale che abbiamo analizzato non offrivano un pulsante di salvataggio per le immagini all’interno dell’ambiente dell’interfaccia dei sistemi, il che ci ha costretto a utilizzare altri metodi di download. Ciò potrebbe aver causato la perdita di alcuni metadati, influenzando potenzialmente i nostri risultati relativi all’incorporamento di filigrane leggibili dalla macchina.
Quali sono le implicazioni e le sfide della filigrana nel contesto dei sistemi di generazione di intelligenza artificiale?
L’ascesa dell’IA generativa ha creato un’urgente necessità di filigrana e di etichettatura dei contenuti generati dall’IA, specialmente con normative come l’AI Act dell’UE che impongono queste pratiche. Tuttavia, l’implementazione presenta una complessa rete di sfide e implicazioni.
Incentivi contrastanti e mandati normativi
Mentre la società beneficia dell’identificazione dei contenuti generati dall’IA, i fornitori spesso affrontano incentivi contrastanti. Vogliono offrire agli utenti la possibilità di creare contenuti senza segni visibili di generazione artificiale. Le grandi aziende affrontano il rischio di “collasso del modello”, in cui i modelli di IA si degradano quando vengono addestrati su contenuti generati dall’IA. Inoltre, le società di social media come Meta devono affrontare responsabilità ai sensi del Digital Services Act dell’UE per la distribuzione di contenuti dannosi, incentivando ulteriormente la filigrana.
L’AI Act dell’UE, che sarà applicato a partire dal 1° agosto 2026, prevede due misure chiave:
- Incorporare marcature leggibili da macchina negli output generati dall’IA per il rilevamento automatizzato.
- Divulgare visibilmente l’origine artificiale dei “deep fake” generati dall’IA.
La non conformità può comportare sanzioni fino a 15 milioni di euro o il 3% del fatturato annuo globale di una società. Tuttavia, persistono ambiguità riguardo all’applicazione pratica di questi requisiti, tra cui l’attribuzione delle responsabilità e la definizione di “deep fake”.
Sfide di trasparenza lungo la catena di approvvigionamento dell’IA
La catena di approvvigionamento dell’IA generativa coinvolge gli sviluppatori di modelli di base, gli sviluppatori downstream, i fornitori di sistemi e i deployer dei sistemi. Le regole di trasparenza dell’AI Act si applicano specificamente ai sistemi di IA (app o strumenti web), non necessariamente agli sviluppatori dei modelli sottostanti.
Diversi scenari di implementazione creano implicazioni variabili per la conformità:
- Sistemi integrati end-to-end: Le organizzazioni che sviluppano e implementano modelli di IA sono responsabili dell’implementazione di una robusta filigrana.
- Sistemi che utilizzano l’accesso al modello API: Questi sistemi sfruttano le API di fornitori di modelli su larga scala. La conformità dipende dall’utilizzo di funzionalità di filigrana integrate o dall’implementazione di misure di post-elaborazione.
- Sistemi (open-source) distribuiti su Hugging Face: La determinazione della responsabilità per la conformità all’AI Act non è chiara in questi casi, specialmente perché Hugging Face fornisce l’interfaccia utente.
- Sistemi che utilizzano altri modelli (open-source) con il proprio marchio: Queste organizzazioni implementano modelli di IA con il proprio marchio senza divulgare la fonte, richiedendo la piena conformità agli obblighi di trasparenza.
Considerazioni pratiche e gap di implementazione
Attualmente, solo una minoranza di fornitori implementa pratiche di marcatura leggibili da macchina, in gran parte guidate dalle grandi organizzazioni che vogliono prevenire il degrado dei loro set di addestramento dell’IA e proteggere i contenuti protetti da copyright.
- Filigrana limitata: Metodi robusti di filigrana che si concentrano sul rilevamento di immagini generate dall’IA rimangono rari, specialmente quelli che non possono essere facilmente rimossi. Molte soluzioni si basano su tecniche di post-generazione come l’embedding di metadati, che vengono facilmente rimossi.
- Divulgazioni visibili: Le filigrane visibili per i deep fake sono usate raramente, spesso a causa del loro impatto sull’esperienza utente.
- Rilevamento di deep fake: Limitare l’etichettatura ai deep fake richiede metodi complessi, potenzialmente impegnativi per le organizzazioni più piccole.
- Concentrazione dell’ecosistema: Una manciata di fornitori di modelli influenza pesantemente l’ecosistema, rendendo le loro azioni fondamentali per una più ampia adozione delle pratiche di filigrana.
Esistono sfide nella distribuzione equa degli oneri di conformità lungo la catena di approvvigionamento dell’IA, e l’UE sta prendendo in considerazione la classificazione dei modelli su larga scala come modelli GPAI con rischio sistemico, richiedendo quindi agli sviluppatori di avere una rigorosa implementazione della filigrana tramite API.
Implicazioni Pratiche Ai Sensi del Nuovo Regolamento UE sull’IA
Il Regolamento UE sull’IA impone misure specifiche per affrontare i rischi derivanti dai contenuti generati dall’IA. Ecco un’analisi per i responsabili della conformità e i professionisti del legal-tech:
Requisiti Chiave:
- Marcature Leggibili dalle Macchine (Articolo 50(2)): Tutti i risultati generati dall’IA devono avere marcature leggibili dalle macchine incorporate e rilevabili. Ciò mira a facilitare il rilevamento automatizzato di contenuti sintetici.
- Divulgazioni Visibili (Articolo 50(4)): Chi utilizza sistemi di IA generativa che creano o manipolano “deep fake” (che assomigliano a persone, oggetti reali, ecc.) deve dichiarare che il contenuto è artificiale. Questa divulgazione deve essere chiara e distinguibile al momento della prima “interazione o esposizione”.
Applicazione e Sanzioni:
- Queste regole entrano in vigore dal 1° agosto 2026.
- La non conformità può comportare sanzioni fino a 15 milioni di euro o al 3% del fatturato annuo globale.
Ambiguità e Sfide
Il Regolamento sull’IA deve affrontare questioni pratiche di applicazione come l’assegnazione di responsabilità lungo la complessa catena di fornitura dell’IA generativa e la definizione di “deep fake”. Questa sezione esamina gli scenari di implementazione pratica dei sistemi di intelligenza artificiale generativa per chiarire l’applicazione e servirebbero per la progettazione di misure di intelligenza artificiale per chiarire la traduzione del legale in artefatti tecnici.
Scenari di Implementazione e Responsabilità
Per chiarire l’applicazione delle regole di trasparenza del Regolamento sull’IA, il documento identifica quattro scenari di implementazione, analizzando come le regole si applicano in ciascuno:
- Sistemi Integrati End-to-End: Le organizzazioni che sviluppano e implementano modelli di IA internamente devono rispettare sia le marcature leggibili dalle macchine che le divulgazioni visibili di deep fake.
- Sistemi Che Utilizzano l’Accesso al Modello tramite API: I sistemi che integrano le API dei principali fornitori di modelli (come OpenAI) richiedono la conformità. Possono fare affidamento sulle funzionalità integrate dei fornitori di modelli o implementare le proprie misure (filigrane di post-elaborazione, metadati). Il rilevamento di prompt di deep fake presenta una sfida significativa, soprattutto per le aziende più piccole. Un approccio più semplice potrebbe comportare divulgazioni visibili a tutte le immagini generate, anche se ciò potrebbe influire negativamente sull’esperienza dell’utente.
- Sistemi (Open-Source) Implementati su Hugging Face: Non è chiaro chi sia responsabile della conformità quando i modelli di IA sono ospitati su Hugging Face. Hugging Face offre l’interfaccia utente ma non ha il controllo sul modello, potrebbe essere il fornitore e l’implementatore.
- Sistemi Che Utilizzano Altri Modelli (Open-Source) con il Proprio Marchio: Questa categoria include le organizzazioni che devono rispettare entrambi gli obblighi di trasparenza.
Considerazioni Pratiche
- Chiarire i Ruoli: Le aziende devono definire chiaramente il proprio ruolo nella catena di fornitura dell’IA (sviluppatore di modelli, fornitore di sistemi, implementatore) per comprendere i propri specifici obblighi.
- Traduzione di Artefatti Tecnici: Le aziende devono tradurre i requisiti legali in artefatti tecnici entro la sentenza finale e/o l’implementazione del Regolamento sull’IA.
- Valutare le Soluzioni Esistenti: Valutare le capacità di filigrana esistenti nei modelli di IA o nelle API utilizzate. In caso di assenza, implementare tecniche di post-elaborazione.
- Rilevamento di Deep Fake: Sviluppare o acquisire capacità per rilevare prompt di deep fake o prendere in considerazione l’applicazione di divulgazioni visibili in modo ampio.