Obbligo di etichettatura per i contenuti generati dall’IA in Spagna

Il governo approva un disegno di legge per rendere obbligatoria l’etichettatura dei contenuti generati dall’IA in Spagna

Il governo centrale spagnolo ha approvato un disegno di legge per regolare l’uso etico, inclusivo e benefico dell’intelligenza artificiale (IA). Questa proposta, annunciata dopo il consiglio dei ministri del 12 marzo, si adatta alla regolamentazione dell’UE, che già si concentra sull’uso appropriato dell’IA.

Obiettivi della regolamentazione

Secondo il ministro per la trasformazione digitale e l’amministrazione pubblica, Óscar López, questa regolamentazione ”completa il grande scudo europeo dei diritti digitali, che protegge i cittadini nel contesto attuale”. López ha affermato che questa regolamentazione ”è pionieristica a livello nazionale e internazionale” e mira a armonizzare la legislazione nazionale sugli nuovi strumenti digitali.

Normative in vigore

Dopo l’annuncio, il disegno di legge continuerà ad essere elaborato tramite una procedura di urgenza, anche se molte delle normative sono già in vigore. Dal mese di agosto scorso, l’AI Act europeo regola l’uso dell’intelligenza artificiale, limitando la commercializzazione, l’incarico o l’uso di sistemi che utilizzano tecniche ingannevoli o che possono manipolare il comportamento o il processo decisionale delle persone.

Divieti specifici

La legge dell’UE vieta anche l’uso di sistemi IA per:

  • prevedere il rischio di una persona di commettere un reato basandosi esclusivamente sul suo profilo o sulle sue caratteristiche;
  • espandere i database di riconoscimento facciale estraendo immagini facciali da internet o da riprese CCTV;
  • concentrarsi sulla categorizzazione individuale delle persone basata su dati biometrici;
  • inferire emozioni in contesti lavorativi o educativi;
  • facilitare sistemi di identificazione biometrica ”in tempo reale” negli spazi pubblici per scopi di applicazione della legge, con alcune eccezioni.

Rischi identificati e pratiche vietate

Con questo disegno di legge, vengono identificati rischi e pratiche vietate, come le tecniche subliminali o il riconoscimento biometrico negli spazi pubblici, assicurando anche l’etichettatura dei deepfake.

Autorità di vigilanza

Le autorità spagnole responsabili della supervisione della conformità alla legge saranno: l’ in casi legati ai dati biometrici; il consiglio generale della magistratura in casi legati alla giustizia; e il comitato elettorale centrale in casi relativi all’implementazione dell’IA nei processi elettorali. L’ sarà responsabile per le altre applicazioni.

Penalità per i deepfake

Il disegno di legge prevede anche sanzioni severe, che variano da 7,5 a 35 milioni di euro, o tra il 2% e il 7% del fatturato globale dell’azienda responsabile. L’importo può essere ridotto per le PMI (piccole e medie imprese).

Le violazioni gravi includeranno il mancato rispetto dell’obbligo di etichettare correttamente qualsiasi immagine, audio o video generato o manipolato con l’IA che mostri persone reali o inesistenti dire o fare cose che non hanno mai fatto o in luoghi in cui non sono mai state – la definizione di deepfake.

Il disegno di legge coincide con la controversia su un video deepfake diffuso dal partito conservatore spagnolo Partido Popular, intitolato La isla de las corrupciones. Il contenuto, che è stato cancellato dopo le proteste nella Repubblica Dominicana, mostra immagini del paese caraibico e membri del partito socialista al governo, suggerendo pratiche di corruzione.

Giorni dopo, il PP ha prodotto un’altra pubblicazione, mostrando una successione di immagini virtuali di vari leader o ex leader della sinistra, così come la moglie del presidente Pedro Sánchez.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...