Obbligo di etichettatura per i contenuti generati dall’IA in Spagna

Il governo approva un disegno di legge per rendere obbligatoria l’etichettatura dei contenuti generati dall’IA in Spagna

Il governo centrale spagnolo ha approvato un disegno di legge per regolare l’uso etico, inclusivo e benefico dell’intelligenza artificiale (IA). Questa proposta, annunciata dopo il consiglio dei ministri del 12 marzo, si adatta alla regolamentazione dell’UE, che già si concentra sull’uso appropriato dell’IA.

Obiettivi della regolamentazione

Secondo il ministro per la trasformazione digitale e l’amministrazione pubblica, Óscar López, questa regolamentazione ”completa il grande scudo europeo dei diritti digitali, che protegge i cittadini nel contesto attuale”. López ha affermato che questa regolamentazione ”è pionieristica a livello nazionale e internazionale” e mira a armonizzare la legislazione nazionale sugli nuovi strumenti digitali.

Normative in vigore

Dopo l’annuncio, il disegno di legge continuerà ad essere elaborato tramite una procedura di urgenza, anche se molte delle normative sono già in vigore. Dal mese di agosto scorso, l’AI Act europeo regola l’uso dell’intelligenza artificiale, limitando la commercializzazione, l’incarico o l’uso di sistemi che utilizzano tecniche ingannevoli o che possono manipolare il comportamento o il processo decisionale delle persone.

Divieti specifici

La legge dell’UE vieta anche l’uso di sistemi IA per:

  • prevedere il rischio di una persona di commettere un reato basandosi esclusivamente sul suo profilo o sulle sue caratteristiche;
  • espandere i database di riconoscimento facciale estraendo immagini facciali da internet o da riprese CCTV;
  • concentrarsi sulla categorizzazione individuale delle persone basata su dati biometrici;
  • inferire emozioni in contesti lavorativi o educativi;
  • facilitare sistemi di identificazione biometrica ”in tempo reale” negli spazi pubblici per scopi di applicazione della legge, con alcune eccezioni.

Rischi identificati e pratiche vietate

Con questo disegno di legge, vengono identificati rischi e pratiche vietate, come le tecniche subliminali o il riconoscimento biometrico negli spazi pubblici, assicurando anche l’etichettatura dei deepfake.

Autorità di vigilanza

Le autorità spagnole responsabili della supervisione della conformità alla legge saranno: l’ in casi legati ai dati biometrici; il consiglio generale della magistratura in casi legati alla giustizia; e il comitato elettorale centrale in casi relativi all’implementazione dell’IA nei processi elettorali. L’ sarà responsabile per le altre applicazioni.

Penalità per i deepfake

Il disegno di legge prevede anche sanzioni severe, che variano da 7,5 a 35 milioni di euro, o tra il 2% e il 7% del fatturato globale dell’azienda responsabile. L’importo può essere ridotto per le PMI (piccole e medie imprese).

Le violazioni gravi includeranno il mancato rispetto dell’obbligo di etichettare correttamente qualsiasi immagine, audio o video generato o manipolato con l’IA che mostri persone reali o inesistenti dire o fare cose che non hanno mai fatto o in luoghi in cui non sono mai state – la definizione di deepfake.

Il disegno di legge coincide con la controversia su un video deepfake diffuso dal partito conservatore spagnolo Partido Popular, intitolato La isla de las corrupciones. Il contenuto, che è stato cancellato dopo le proteste nella Repubblica Dominicana, mostra immagini del paese caraibico e membri del partito socialista al governo, suggerendo pratiche di corruzione.

Giorni dopo, il PP ha prodotto un’altra pubblicazione, mostrando una successione di immagini virtuali di vari leader o ex leader della sinistra, così come la moglie del presidente Pedro Sánchez.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...