Obbligo di etichettatura per i contenuti generati dall’IA in Spagna

Il governo approva un disegno di legge per rendere obbligatoria l’etichettatura dei contenuti generati dall’IA in Spagna

Il governo centrale spagnolo ha approvato un disegno di legge per regolare l’uso etico, inclusivo e benefico dell’intelligenza artificiale (IA). Questa proposta, annunciata dopo il consiglio dei ministri del 12 marzo, si adatta alla regolamentazione dell’UE, che già si concentra sull’uso appropriato dell’IA.

Obiettivi della regolamentazione

Secondo il ministro per la trasformazione digitale e l’amministrazione pubblica, Óscar López, questa regolamentazione ”completa il grande scudo europeo dei diritti digitali, che protegge i cittadini nel contesto attuale”. López ha affermato che questa regolamentazione ”è pionieristica a livello nazionale e internazionale” e mira a armonizzare la legislazione nazionale sugli nuovi strumenti digitali.

Normative in vigore

Dopo l’annuncio, il disegno di legge continuerà ad essere elaborato tramite una procedura di urgenza, anche se molte delle normative sono già in vigore. Dal mese di agosto scorso, l’AI Act europeo regola l’uso dell’intelligenza artificiale, limitando la commercializzazione, l’incarico o l’uso di sistemi che utilizzano tecniche ingannevoli o che possono manipolare il comportamento o il processo decisionale delle persone.

Divieti specifici

La legge dell’UE vieta anche l’uso di sistemi IA per:

  • prevedere il rischio di una persona di commettere un reato basandosi esclusivamente sul suo profilo o sulle sue caratteristiche;
  • espandere i database di riconoscimento facciale estraendo immagini facciali da internet o da riprese CCTV;
  • concentrarsi sulla categorizzazione individuale delle persone basata su dati biometrici;
  • inferire emozioni in contesti lavorativi o educativi;
  • facilitare sistemi di identificazione biometrica ”in tempo reale” negli spazi pubblici per scopi di applicazione della legge, con alcune eccezioni.

Rischi identificati e pratiche vietate

Con questo disegno di legge, vengono identificati rischi e pratiche vietate, come le tecniche subliminali o il riconoscimento biometrico negli spazi pubblici, assicurando anche l’etichettatura dei deepfake.

Autorità di vigilanza

Le autorità spagnole responsabili della supervisione della conformità alla legge saranno: l’ in casi legati ai dati biometrici; il consiglio generale della magistratura in casi legati alla giustizia; e il comitato elettorale centrale in casi relativi all’implementazione dell’IA nei processi elettorali. L’ sarà responsabile per le altre applicazioni.

Penalità per i deepfake

Il disegno di legge prevede anche sanzioni severe, che variano da 7,5 a 35 milioni di euro, o tra il 2% e il 7% del fatturato globale dell’azienda responsabile. L’importo può essere ridotto per le PMI (piccole e medie imprese).

Le violazioni gravi includeranno il mancato rispetto dell’obbligo di etichettare correttamente qualsiasi immagine, audio o video generato o manipolato con l’IA che mostri persone reali o inesistenti dire o fare cose che non hanno mai fatto o in luoghi in cui non sono mai state – la definizione di deepfake.

Il disegno di legge coincide con la controversia su un video deepfake diffuso dal partito conservatore spagnolo Partido Popular, intitolato La isla de las corrupciones. Il contenuto, che è stato cancellato dopo le proteste nella Repubblica Dominicana, mostra immagini del paese caraibico e membri del partito socialista al governo, suggerendo pratiche di corruzione.

Giorni dopo, il PP ha prodotto un’altra pubblicazione, mostrando una successione di immagini virtuali di vari leader o ex leader della sinistra, così come la moglie del presidente Pedro Sánchez.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...