Domare l’AI Generativa: Regolamentazione, Realtà e il Cammino da Percorrere

L’ascesa dell’IA generativa ha sbloccato un potenziale creativo senza precedenti, ma ha anche sollevato questioni critiche sulla regolamentazione e la responsabilità. Mentre gli algoritmi confondono i confini tra contenuti generati da umani e da macchine, la prossima legislazione come l’EU AI Act mira a stabilire confini chiari e garantire la trasparenza. Tuttavia, raggiungere una supervisione significativa presenta una sfida complessa, costringendoci a confrontarci con domande fondamentali su come classifichiamo, rileviamo e gestiamo le realtà create artificialmente. La nostra ricerca approfondisce le realtà pratiche di questo panorama in evoluzione, analizzando le pratiche attuali e sezionando gli ostacoli che si frappongono a una regolamentazione efficace.

Quali sono le caratteristiche chiave del panorama attuale dei sistemi di IA generativa?

Mentre l’IA generativa continua la sua rapida evoluzione, diverse caratteristiche chiave definiscono il panorama attuale, influenzando sia il suo potenziale che le sfide che pone.

Approfondimenti tecnologici fondamentali

I modelli di IA generativa, in particolare i sistemi text-to-image (TTI), hanno raggiunto un notevole fotorealismo, rendendo spesso difficile anche agli esperti distinguere i contenuti generati dall’IA dalle immagini create dall’uomo. Questo salto di qualità deriva dai progressi nelle tecniche di deep learning e dalla capacità di apprendere da vasti set di dati non etichettati. Questi modelli analizzano i modelli nei dati di addestramento per generare nuovi contenuti con caratteristiche simili.

Tuttavia, questa capacità ha un costo significativo. L’addestramento di questi modelli avanzati richiede immense risorse computazionali e l’accesso a set di dati massicci. Di conseguenza, lo sviluppo è concentrato tra poche grandi aziende tecnologiche e istituzioni accademiche ben finanziate.

Preoccupazioni normative e di conformità

L’EU AI Act è l’iniziativa normativa più completa fino ad oggi che affronta i rischi posti dai contenuti generati dall’IA. I suoi requisiti principali includono:

  • Watermarking leggibile da macchina: Tutti gli output dei sistemi di IA generativa devono essere contrassegnati in un formato leggibile da macchina, rilevabile come generati o manipolati artificialmente. Interoperabilità, robustezza e affidabilità sono considerazioni chiave.
  • Divulgazioni visibili di deepfake: Gli utilizzatori di sistemi di IA generativa che creano o manipolano contenuti di immagini, audio o video che costituiscono un “deep fake” devono divulgare chiaramente la sua origine artificiale. Queste informazioni devono essere fornite al momento della prima interazione o esposizione.

La non conformità può comportare sanzioni pecuniarie sostanziali, fino a 15 milioni di euro o al 3% del fatturato annuo globale. Le regole di trasparenza dell’AI Act entreranno in vigore il 1° agosto 2026.

Implicazioni pratiche e sfide

Nonostante le imminenti normative, l’implementazione del watermarking rimane limitata. Un’analisi di 50 sistemi di IA generativa ampiamente utilizzati rivela diverse tendenze preoccupanti:

  • Watermarking incoerente: L’implementazione è incoerente e varia significativamente tra diversi fornitori e metodi di implementazione.
  • Vulnerabilità dei metadati: L’incorporazione dei metadati è l’approccio più comune, tuttavia è facilmente rimovibile, minando la sua efficacia come marcatore robusto.
  • Focus sul sistema end-to-end: Le pratiche di marcatura leggibili da macchina si trovano principalmente nei sistemi end-to-end (sistemi di Categoria 1) e nei fornitori su larga scala (sistemi di Categoria 2). Ciò suggerisce che le grandi organizzazioni sono principalmente interessate alla provenienza dei dati o al copyright, non necessariamente al rilevamento della “non-verità”.
  • Evitare marcature visibili: Le filigrane visibili rimangono rare, principalmente a causa delle preoccupazioni sull’esperienza dell’utente e del potenziale impatto sui modelli di business. Quando vengono utilizzate, spesso si applicano a tutte le immagini generate, non specificamente ai deep fake, come richiesto dall’AI Act. La maggior parte delle marcature visibili può anche essere rimossa dopo il pagamento.

L’implementazione di un’adeguata divulgazione per i deep fake presenta una sfida distinta. Richiede un sistema separato, probabilmente basato su NLP, per classificare i prompt come deep fake. Le organizzazioni più piccole troverebbero difficile e computazionalmente costoso da implementare.

L’ecosistema è anche dominato da pochi attori principali. Molti fornitori di sistemi si affidano a una manciata di modelli, principalmente di Stability AI, Black Forest Labs e OpenAI. Sebbene questi fornitori di modelli si sforzino di incorporare il watermarking, questi watermarks sono spesso facilmente disabilitati o non vengono applicati in modo coerente nei sistemi basati su API. Hugging Face dovrebbe imporre requisiti di watermarking per i modelli open-source ospitati dalla loro piattaforma.

L’AI Act introduce ambiguità sui ruoli di fornitori, utilizzatori, modelli e sistemi, che potrebbero influire sull’efficacia della conformità e dividere la responsabilità lungo la complessa catena di approvvigionamento dell’IA generativa.

Come si applicano gli obblighi di trasparenza dell’EU AI Act nel contesto della marcatura digitale e della divulgazione di contenuti generati dall’AI?

L’EU AI Act impone la trasparenza per i contenuti generati dall’IA attraverso due misure chiave: l’incorporazione di marcature leggibili da macchina negli output generati dall’IA e la divulgazione visibile dell’origine artificiale dei deep fake generati dall’IA. La non conformità può comportare sanzioni significative, fino al 3% del fatturato annuo globale o 15 milioni di euro. Queste regole entreranno in vigore a partire dal 1° agosto 2026. Tuttavia, permangono sfide relative all’applicazione pratica, all’allocazione delle responsabilità all’interno della catena di fornitura dell’IA generativa e a definizioni precise, come quella di “deep fake”.

Obblighi chiave ai sensi dell’Articolo 50

L’Articolo 50 dell’EU AI Act affronta specificamente i sistemi di IA generativa, delineando i seguenti obblighi:

  • Marcature leggibili da macchina: I fornitori di sistemi di IA generativa devono garantire che gli output siano contrassegnati in un formato leggibile da macchina, rilevabile come generati o manipolati artificialmente. Le soluzioni tecniche devono essere efficaci, interoperabili, robuste e affidabili, entro la fattibilità tecnica e tenendo conto del tipo di contenuto e dei costi di implementazione. Tecniche come filigrane, identificazioni dei metadati, metodi crittografici, logging e impronte digitali sono elencati come potenziali mezzi di conformità.
  • Divulgazione visibile per i deep fake: I deployer di sistemi di IA generativa che generano o manipolano contenuti di immagini, audio o video che costituiscono un deep fake devono divulgare che il contenuto è stato generato o manipolato artificialmente. Queste informazioni devono essere fornite agli individui in modo chiaro e distinguibile alla loro interazione o esposizione iniziale. Questo è tipicamente interpretato come una filigrana o etichetta visibile direttamente incorporata, e non necessariamente un messaggio di divulgazione separato.

Sebbene l’Act prenda di mira i sistemi di IA (app o strumenti web), non impone direttamente misure di trasparenza per i modelli sottostanti. Tuttavia, la seconda bozza del codice di condotta per i modelli GPAI richiede che i modelli a rischio sistemico utilizzino filigrane per l’identificazione e la segnalazione degli incidenti.

Scenari pratici e implicazioni

Per comprendere meglio come questi regolamenti si traducono nella pratica, si considerino questi comuni scenari di implementazione dell’IA generativa:

  • Sistemi integrati end-to-end: Organizzazioni che sviluppano modelli di IA e li integrano nelle loro applicazioni. Queste entità agiscono sia come provider che come deployer, consentendo una robusta marcatura digitale durante lo sviluppo del modello. Esempi sono OpenAI e Adobe.
  • Sistemi che utilizzano l’accesso all’API del modello: Sistemi che sfruttano le API di fornitori di modelli GPAI su larga scala. Questi provider devono fare affidamento sulle funzionalità API esistenti o implementare le proprie misure di post-elaborazione per la marcatura e la divulgazione.
  • Sistemi open-source implementati su Hugging Face: Sistemi costruiti su modelli open-source, spesso implementati tramite Hugging Face. Determinare la responsabilità per la conformità all’AI Act in questi casi è complesso, potenzialmente coinvolgendo lo stesso Hugging Face.
  • Sistemi che utilizzano altri modelli (open-source) con il proprio marchio: Organizzazioni che implementano modelli di IA con il proprio marchio, potenzialmente senza divulgare i modelli sottostanti. Questi provider sono soggetti a tutti i requisiti di trasparenza.

Questi diversi scenari evidenziano le complessità nell’assegnazione delle responsabilità e nella garanzia di un’applicazione coerente dei requisiti di trasparenza dell’AI Act.

Sfide di implementazione

Le distinzioni stabilite dall’EU AI Act tra provider, deployer, modelli e sistemi creano zone grigie che necessitano di chiarimenti.
L’onere della conformità ai requisiti di marcatura leggibile da macchina e divulgazione dei deep fake potrebbe colpire in modo sproporzionato i piccoli sviluppatori di app e siti web, poiché le organizzazioni più grandi e meglio finanziate sono tipicamente le organizzazioni che sviluppano e implementano i modelli. L’implementazione di soluzioni leggibili da macchina sarebbe meglio realizzata nella fase di sviluppo del modello. L’applicazione delle normative a livello di sviluppatore del modello sarebbe più semplice dato il numero relativamente piccolo di attori che sviluppano modelli di immagini avanzati.

Quali sono le implicazioni pratiche dell’implementazione della filigrana e dei requisiti di divulgazione visibile per vari tipi di sistemi di IA generativa?

L’EU AI Act impone due misure fondamentali per gli output dell’IA generativa: filigrane leggibili dalle macchine per il rilevamento automatizzato e divulgazione visibile dei deep fake generati dall’IA. Il mancato rispetto potrebbe comportare pesanti sanzioni. Tuttavia, esistono ambiguità applicative pratiche relative all’allocazione delle responsabilità e alle definizioni di deep fake.

Implicazioni chiave dell’AI Act:

  • Requisiti legali: Entro il 1° agosto 2026, tutti gli output dell’IA generativa dovranno avere marcature leggibili dalle macchine e i deep fake dovranno essere divulgati visibilmente come generati artificialmente.
  • Rischi di responsabilità: Le società di social media come Meta potrebbero incorrere in responsabilità ai sensi del Digital Services Act dell’UE per la distribuzione di contenuti generati dall’IA che comportano rischi per la società. Questo incentiva i fornitori più grandi a contrassegnare i contenuti generati dall’IA.
  • Rischio finanziario: La non conformità può comportare multe fino a 15 milioni di euro o al 3% del fatturato annuo globale.
  • Collasso del modello: L’implementazione di una filigrana rigorosa aiuta a mitigare il rischio di collasso del modello, poiché i modelli di IA potrebbero deteriorarsi se addestrati su contenuti generati dall’IA.

L’attuazione delle norme sulla trasparenza dell’AI Act varia a seconda degli scenari del sistema di IA generativa:

Scenari di implementazione e implicazioni:

Le responsabilità per la filigrana e la divulgazione non rientrano sempre in categorie precise, ma ecco un’analisi degli scenari comuni:

Scenario 1: Sistemi integrati end-to-end:

  • I fornitori che sviluppano E implementano sistemi di IA (come OpenAI o Adobe) possono implementare una robusta filigrana durante lo sviluppo del modello.
  • Molti forniscono anche l’accesso API senza necessariamente estendere le funzionalità di filigrana, il che si traduce in un’applicazione incoerente lungo tutta la catena di approvvigionamento.
  • I giganti dei social media in questa categoria devono anche considerare gli obblighi ai sensi del Digital Services Act dell’UE e la possibilità che i modelli GPAI siano classificati come ad alto rischio.

Scenario 2: Sistemi che utilizzano l’accesso al modello API:

  • I fornitori sfruttano le API dei fornitori di modelli GPAI su larga scala e devono rispettare la trasparenza.
  • Possono fare affidamento sulle funzionalità integrate fornite dai fornitori di modelli o implementare le proprie misure di post-elaborazione. La creazione di una soluzione di marcatura visibile potrebbe essere difficile se vogliono individuare i prompt deep fake.

Scenario 3: Sistemi (open-source) implementati su Hugging Face:

  • I modelli open-source distribuiti tramite la piattaforma Hugging Face devono affrontare sfide di conformità.
  • La piattaforma offre un’interfaccia ma non ha alcun controllo sul modello. Questo rende difficile determinare chi si assume la responsabilità della conformità.

Scenario 4: Sistemi che utilizzano altri modelli (open-source) con il proprio marchio:

  • Le organizzazioni utilizzano modelli di IA di altre organizzazioni per creare i propri prodotti con il proprio marchio senza un avviso adeguato. A causa di questo sistema, è difficile tracciare la provenienza dei modelli open-source.
  • Ciò rende il loro prodotto soggetto agli stessi obblighi di trasparenza poiché ora distribuiscono il loro prodotto senza rivelare la loro fonte.

Questi scenari evidenziano come le linee sfocate tra sviluppatori, fornitori e implementatori complichino l’applicazione dell’AI Act. Metodi automatizzati di ispezione della conformità sono essenziali quando l’AI Act entra in vigore.

Quali sono stati i risultati dell’analisi empirica del watermarking e delle pratiche di divulgazione?

La nostra analisi di 50 sistemi di IA generativa ampiamente utilizzati rivela un panorama ancora lontano dalla piena conformità alle imminenti normative come l’EU AI Act. Mentre la legge impone marcature leggibili da macchina e divulgazioni visibili per determinati contenuti generati dall’IA, l’adozione è disomogenea e l’implementazione varia ampiamente.

Risultati chiave:

  • Watermarking leggibile da macchina limitato: Solo una minoranza di fornitori (18 su 50) attualmente implementa marcature leggibili da macchina, con l’incorporamento di metadati come la tecnica più comune ma facilmente rimovibile. Il watermarking nascosto, un approccio più robusto, è più raro.
  • Sistemi end-to-end in testa nel watermarking: I sistemi integrati end-to-end (Categoria 1), in cui la stessa organizzazione sviluppa il modello e l’interfaccia, hanno maggiori probabilità di implementare marcature leggibili da macchina.
  • Le divulgazioni visibili sono rare: Filigrane o divulgazioni visibili che indicano contenuti generati dall’IA sono state trovate solo in 8 dei 50 sistemi analizzati. In particolare, questi venivano spesso applicati a tutte le immagini generate, non solo ai deep fake.
  • Sfide con il rilevamento di deep fake: Limitare le divulgazioni visibili ai deep fake presenta una sfida significativa, in particolare per le organizzazioni più piccole che necessitano di implementare la classificazione dei prompt basata su NLP.
  • Ecosistema dominato da pochi attori: I fornitori di sistemi si affidano spesso a una manciata di modelli di base di attori chiave come Stability AI, Black Forest Labs e OpenAI. Le soluzioni di watermarking, anche quando implementate da questi fornitori principali, non sono costantemente estese ai sistemi basati su API.

Implicazioni:

Questi risultati sottolineano la necessità di linee guida normative più chiare e soluzioni di watermarking più robuste e interoperabili per garantire un’applicazione efficace dell’EU AI Act e di leggi simili. L’attuale dipendenza da metadati facilmente rimovibili e l’applicazione incoerente del watermarking lungo la catena di fornitura dell’IA generativa sollevano serie preoccupazioni sulla capacità di rilevare ed etichettare efficacemente i contenuti generati dall’IA.

Preoccupazioni normative:

Le definizioni di “fornitore” e “implementatore” dell’AI Act nel contesto dell’IA generativa rimangono ambigue, portando a potenziali scappatoie e a una distribuzione disomogenea degli oneri di conformità. Gli sviluppatori di app e siti web più piccoli possono sopportare un onere sproporzionato rispetto ai grandi sviluppatori di modelli ben finanziati responsabili del core tecnologico.

Azioni pratiche:

  • Dare la priorità al watermarking robusto a livello di modello: Gli sviluppatori di modelli dovrebbero implementare un watermarking robusto direttamente nella fase di generazione per facilitare l’implementazione per i fornitori di sistemi a valle e aumentare il costo per gli attori malintenzionati per rimuovere queste marcature.
  • Considerare la designazione GPAI per modelli avanzati: L’UE e altri organismi di regolamentazione dovrebbero prendere in considerazione la possibilità di designare i modelli di immagini più avanzati come modelli di intelligenza artificiale per scopi generali (GPAI) con rischi sistemici, richiedendo agli sviluppatori di adottare misure di mitigazione proattive come il watermarking.
  • Utilizzare API e termini di licenza per l’applicazione: Gli sviluppatori di modelli possono sfruttare le API e i termini di licenza per imporre l’uso del watermarking da parte dei fornitori di sistemi a valle.
  • Sviluppare strumenti automatizzati di ispezione della conformità: Man mano che il numero di sistemi di IA generativa cresce, i metodi automatizzati per l’ispezione della conformità saranno cruciali per rilevare il watermarking e garantire un’applicazione efficace delle normative sull’IA.

Quali sono le principali sfide e i potenziali sviluppi futuri riguardanti l’effettiva implementazione delle normative dell’AI Act nel contesto dell’IA generativa?

L’AI Act dell’UE mira ad affrontare i rischi derivanti dai contenuti generati dall’IA con marcature obbligatorie leggibili da macchina e divulgazioni visibili per i deepfake. La non conformità potrebbe comportare sanzioni significative, a partire dal 1° agosto 2026. Tuttavia, persistono ambiguità in merito all’applicazione pratica, in particolare per quanto riguarda l’allocazione delle responsabilità e la definizione di “deepfake”.

Principali sfide di implementazione:

  • Definizione di ‘Deepfake’: La mancanza di chiarezza su cosa costituisca un “deepfake” crea incertezza per gli utilizzatori.
  • Allocazione delle responsabilità: La divisione delle responsabilità lungo la complessa catena di fornitura dell’IA generativa (sviluppatori di modelli, sviluppatori downstream, fornitori di sistemi e operatori) necessita di chiarimenti.

Complessità delle regole di trasparenza:

Nello specifico, l’articolo 50 dell’AI Act delinea le regole di trasparenza che si applicano ai sistemi di IA generativa:

  • Articolo 50(2): I fornitori devono garantire che gli output siano “contrassegnati in un formato leggibile da macchina e rilevabili come generati o manipolati artificialmente”. Le soluzioni devono essere efficaci, interoperabili, robuste e affidabili.
  • Articolo 50(4): Gli utilizzatori che generano o manipolano contenuti di immagini, audio o video che costituiscono un deepfake devono divulgare che il contenuto è stato generato o manipolato artificialmente.”
  • Visibilità: Ai sensi dell’articolo 50(5), le informazioni devono essere fornite “in modo chiaro e distinguibile al più tardi al momento della prima interazione o esposizione”. Per i deep fake, questo è interpretato come includere un segno visibile sull’output.

Sviluppi e considerazioni future:

L’applicazione efficiente dipenderà da:

  • Controlli di conformità automatizzati: Per gestire l’aumento del volume, sono necessari metodi automatizzati per l’ispezione della conformità, che integrino vari meccanismi di rilevamento.
  • Watermarking a livello di modello: Il watermarking leggibile da macchina sarebbe meglio implementato nella fase di sviluppo del modello, dove potrebbe essere applicato tramite API e termini di licenza.
  • Designazione del modello GPAI: I modelli di immagini più avanzati potrebbero essere designati come modelli GPAI con rischio sistemico.
  • Classificazione dei fornitori di API: Si potrebbe considerare di classificare i fornitori che offrono API di modelli pronte all’uso come fornitori di sistemi di IA.

In definitiva, l’AI Act dell’UE mira a un’implementazione affidabile e mitiga i rischi dei contenuti di IA generativa, ma pone sostanziali ambiguità nel tradurre la conformità dai requisiti legali in prodotti tecnici effettivi che possono creare problemi per gli utilizzatori e la distribuzione delle responsabilità con i diversi componenti della catena generativa dell’IA.


Mentre l’IA generativa rimodella rapidamente il nostro mondo digitale, il percorso verso un’innovazione responsabile risiede nel colmare il divario tra l’ambizione normativa e l’attuazione pratica. Sebbene l’AI Act dell’UE stabilisca un precedente cruciale per la trasparenza e la responsabilità, la sua efficacia dipende dalla risoluzione di ambiguità critiche e dalla promozione di soluzioni collaborative nell’ambito del complesso ecosistema dell’IA. In futuro, concentrarsi su una filigrana robusta a livello di modello, chiarire le responsabilità lungo la catena di approvvigionamento e sviluppare meccanismi di conformità automatizzati sarà essenziale per sbloccare il potenziale trasformativo dell’IA generativa salvaguardando al contempo dai suoi rischi intrinseci. Superare con successo queste sfide è fondamentale per promuovere un futuro in cui l’IA avvantaggi la società nel suo complesso.

More Insights

Guerra ai Tariffi: L’Impatto sull’Intelligenza Artificiale in Europa

I dazi doganali possono avere un impatto complesso sull'avanzamento dell'IA e dell'automazione, fungendo sia da potenziale ostacolo che, paradossalmente, da possibile catalizzatore in alcune aree...

Piano d’azione per l’AI: L’Europa punta alla sovranità tecnologica

La Commissione Europea ha appena pubblicato il suo Piano d'Azione sull'IA, una strategia globale volta a stabilire l'Europa come leader mondiale nell'intelligenza artificiale. Il piano delinea un...

L’Equilibrio Dell’Intelligenza Artificiale a Singapore

Singapore, che si appresta a celebrare sei decenni di progressi straordinari, si trova ora su un precipizio diverso mentre svela la sua ambiziosa Strategia Nazionale per l'IA 2.0. Tuttavia, le ombre...

Intelligenza Artificiale Responsabile nel Settore FinTech

Lexy Kassan discute gli aspetti critici dell'IA responsabile, concentrandosi sugli aggiornamenti normativi come l'Atto sull'IA dell'UE e le sue implicazioni per il FinTech. Spiega i livelli di IA...

Intelligenza Artificiale al Servizio dell’Umanità

Nel panorama in continua evoluzione dell'intelligenza artificiale, la conversazione attorno all'AI incentrata sull'uomo sta guadagnando un'importanza significativa. Questo cambiamento di paradigma è...

Regolamentazione dell’Intelligenza Artificiale: L’Inizio di una Nuova Era in Europa

L'Atto sull'Intelligenza Artificiale dell'UE rappresenta il primo importante quadro normativo al mondo per l'IA, creando un regime legale uniforme per tutti gli stati membri dell'UE. Questo atto mira...

Piano d’azione per l’IA in Europa: Investimenti e Innovazione

Il 9 aprile 2025, la Commissione Europea ha adottato un comunicato sul Piano d'Azione dell'AI Continent, con l'obiettivo di trasformare l'UE in un leader globale nell'AI. Il piano prevede investimenti...

Aggiornamento sulle Clausole Contrattuali AI dell’UE

Il "mercato" per i termini contrattuali sull'IA continua ad evolversi, e mentre non esiste un approccio standardizzato, sono stati proposti diversi modelli di contrattazione. Una delle ultime...

Riconoscimento Emotivo: Nuove Regole per il Lavoro

L'Intelligenza Artificiale per il riconoscimento delle emozioni sta guadagnando terreno in vari contesti, tra cui il rilevamento di conflitti potenziali nei luoghi pubblici e l'analisi delle vendite...