Legge proposta per regolare immagini AI dannose
La crescente minaccia rappresentata da immagini deepfake e pornografiche create con nuovi strumenti di intelligenza artificiale richiede una legge comprensiva per proteggere i cittadini. Due leader statali hanno delineato la loro proposta legislativa.
Obiettivi della legge
La proposta di legge mira a creare il primo quadro giuridico per la regolamentazione delle immagini AI, aumentando le pene civili e penali per i trasgressori. Tra gli elementi chiave vi è la definizione di standard tecnici per gli sviluppatori di AI e l’autorizzazione al Dipartimento di Giustizia di indagare le grandi aziende tecnologiche riguardo all’applicazione di tali standard.
Il “Artificial Intelligence Accountability Act”
Questa legge richiederebbe alle aziende di AI di includere marcatori digitali nei contenuti per identificare i creatori di deepfake dannosi e permettere alle persone di intraprendere azioni legali contro i trasgressori. La legge prevede anche un diritto d’azione privata per le persone danneggiate dalla produzione e diffusione illecita di tali materiali, consentendo di recuperare danni reali o una somma fissa per visualizzazione.
Implicazioni e rischi
Un recente caso di cronaca ha evidenziato la necessità di questa misura, con l’arresto di un individuo accusato di utilizzare immagini di minori dai social media per creare contenuti dannosi. Questo ha sottolineato l’urgenza di sviluppare un quadro normativo chiaro per l’uso etico della tecnologia AI.
Conclusione
La proposta legislativa rappresenta un passo significativo verso la protezione dei cittadini contro l’abuso della tecnologia AI, mirando a stabilire linee guida chiare per lo sviluppo responsabile di tali strumenti. L’incontro con esperti del settore ha evidenziato la necessità di contrastare i comportamenti scorretti per garantire un ecosistema AI sicuro e produttivo.