Politiche della paura e libertà di espressione: un equilibrio precario

L’Panico Elettorale dell’IA: Come le Politiche Guidate dalla Paura Potrebbero Limitare l’Espressione Libera

Con l’emergere di quadri normativi per l’IA negli Stati Uniti e nell’Unione Europea, è fondamentale tenere a mente le lezioni apprese da esperienze recenti. La narrazione guidata dalla paura riguardante l’IA e le ultime elezioni, dove il contenuto generato dall’IA ha avuto un impatto limitato, deve mettere in guardia i policymaker dal correre verso leggi che potrebbero, senza volerlo, minare i valori democratici.

La Narrazione della Disinformazione dell’IA

Nel corso del 2023 e 2024, importanti media hanno espresso preoccupazioni sull’influenza potenziale dell’IA nelle elezioni. Ad aprile 2024, un noto quotidiano ha avvertito i lettori che “le deepfake create dall’IA minacciano di sovvertire le elezioni globali”. Molti altri organismi rispettabili hanno ripetuto queste preoccupazioni, alimentando un clima di allerta tra il pubblico.

Un sondaggio ha rivelato che il 57% degli adulti negli Stati Uniti era molto preoccupato riguardo alla disinformazione guidata dall’IA nelle elezioni. Similmente, il 40% degli elettori europei temeva l’abuso dell’IA durante le elezioni.

Incidenti generati dall’IA hanno effettivamente avuto luogo, come nel caso in cui fino a 20.000 elettori nel New Hampshire hanno ricevuto robocalls con una voce generata dall’IA che imitava il presidente Biden. Tuttavia, ricerche suggeriscono che la narrazione guidata dalla paura non fosse supportata da evidenze significative.

Leggi Eccessive negli Stati Uniti e in Europa

Entro settembre 2024, diciannove stati americani avevano promulgato leggi specifiche riguardo l’uso dell’IA nelle campagne politiche. Tali leggi hanno suscitato preoccupazioni da parte degli advocati della libertà di espressione, dato che spesso mancavano di eccezioni per la satira o la parodia, strumenti fondamentali per criticare i poteri in carica.

In Europa, l’atto sull’IA dell’UE ha sollevato preoccupazioni simili. Le norme che richiedono di etichettare e filtrare i contenuti generati dall’IA potrebbero rischiare di limitare l’espressione libera.

Un Approccio Più Intelligente per il Futuro

Il piano d’azione sull’IA degli Stati Uniti dovrebbe essere guidato da evidenze e astenersi dal promuovere divieti su deepfake politiche. Politiche legislative meno restrittive, come l’etichettatura e la filigrana, possono offrire un’alternativa, ma la loro efficacia rimane discutibile.

È cruciale che i policymaker e le aziende garantiscano l’accesso a dati di alta qualità per condurre studi più completi sull’impatto dei contenuti generati dall’IA. Inoltre, è fondamentale promuovere l’alfabetizzazione sui media e sull’IA, per dotare il pubblico delle competenze necessarie per interagire criticamente con i contenuti.

In conclusione, le leggi devono essere basate su evidenze e chiaramente articolate. Altrimenti, i policymaker rischiano di minare la libertà di espressione, la creatività e la satira, componenti vitali di un sano dibattito democratico.

More Insights

Governanza AI: Impatti Transatlantici e Nuove Responsabilità Aziendali

Questo progetto di ricerca indaga come il Regolamento sull'Intelligenza Artificiale dell'UE stia catalizzando una trasformazione sistemica nei quadri di governance e responsabilità aziendale. Esamina...

AI e Governance: Riformare la Sicurezza e la Conformità nel Settore Rischio

L'intelligenza artificiale e le tecnologie di IA sono fondamentali per il successo della funzione di rischio. I chief risk officer (CRO) possono utilizzare l'IA per affrontare la conformità e navigare...

Senato elimina il blocco sulle leggi sull’IA

Il Senato degli Stati Uniti ha votato 99-1 per rimuovere un provvedimento che avrebbe bloccato gli stati dalla regolamentazione dell'intelligenza artificiale per il prossimo decennio. Questo...

La crisi della sicurezza dei dati nell’industria farmaceutica

L'industria farmaceutica si trova a un bivio pericoloso, con solo il 17% delle organizzazioni che ha implementato controlli automatici per prevenire la perdita di dati sensibili attraverso strumenti...

Governanza AI: Impatti Transatlantici e Nuove Responsabilità Aziendali

Questo progetto di ricerca indaga come il Regolamento sull'Intelligenza Artificiale dell'UE stia catalizzando una trasformazione sistemica nei quadri di governance e responsabilità aziendale. Esamina...

AI e Sicurezza: Affrontare la Nuova Era delle Minacce

Le organizzazioni devono affrontare una nuova realtà: l'IA sta rapidamente rimodellando il panorama delle minacce informatiche. Mentre l'IA aiuta a migliorare la rilevazione e la risposta, porta anche...

Governare l’Intelligenza Artificiale: Verso un Futuro Sostenibile

La Thailandia ha redatto principi per la legislazione sull'intelligenza artificiale (AI), mirando a stabilire un ecosistema AI e ad ampliare l'adozione. La nuova legge dovrebbe fornire protezione agli...

Leggi Texane per una Governance Responsabile dell’Intelligenza Artificiale in Sanità

Il Texas ha adottato leggi complete sulla governance dell'intelligenza artificiale con disposizioni specifiche per il settore sanitario, inclusa la legge HB 149. Questa legge stabilisce un quadro per...

Intelligenza Artificiale: Garanzia di Allineamento e Governance

Gillian K. Hadfield è stata nominata Professore Distinto Bloomberg di Allineamento e Governance dell'IA presso la Johns Hopkins University. È riconosciuta a livello internazionale per la sua ricerca...