L’Panico Elettorale dell’IA: Come le Politiche Guidate dalla Paura Potrebbero Limitare l’Espressione Libera
Con l’emergere di quadri normativi per l’IA negli Stati Uniti e nell’Unione Europea, è fondamentale tenere a mente le lezioni apprese da esperienze recenti. La narrazione guidata dalla paura riguardante l’IA e le ultime elezioni, dove il contenuto generato dall’IA ha avuto un impatto limitato, deve mettere in guardia i policymaker dal correre verso leggi che potrebbero, senza volerlo, minare i valori democratici.
La Narrazione della Disinformazione dell’IA
Nel corso del 2023 e 2024, importanti media hanno espresso preoccupazioni sull’influenza potenziale dell’IA nelle elezioni. Ad aprile 2024, un noto quotidiano ha avvertito i lettori che “le deepfake create dall’IA minacciano di sovvertire le elezioni globali”. Molti altri organismi rispettabili hanno ripetuto queste preoccupazioni, alimentando un clima di allerta tra il pubblico.
Un sondaggio ha rivelato che il 57% degli adulti negli Stati Uniti era molto preoccupato riguardo alla disinformazione guidata dall’IA nelle elezioni. Similmente, il 40% degli elettori europei temeva l’abuso dell’IA durante le elezioni.
Incidenti generati dall’IA hanno effettivamente avuto luogo, come nel caso in cui fino a 20.000 elettori nel New Hampshire hanno ricevuto robocalls con una voce generata dall’IA che imitava il presidente Biden. Tuttavia, ricerche suggeriscono che la narrazione guidata dalla paura non fosse supportata da evidenze significative.
Leggi Eccessive negli Stati Uniti e in Europa
Entro settembre 2024, diciannove stati americani avevano promulgato leggi specifiche riguardo l’uso dell’IA nelle campagne politiche. Tali leggi hanno suscitato preoccupazioni da parte degli advocati della libertà di espressione, dato che spesso mancavano di eccezioni per la satira o la parodia, strumenti fondamentali per criticare i poteri in carica.
In Europa, l’atto sull’IA dell’UE ha sollevato preoccupazioni simili. Le norme che richiedono di etichettare e filtrare i contenuti generati dall’IA potrebbero rischiare di limitare l’espressione libera.
Un Approccio Più Intelligente per il Futuro
Il piano d’azione sull’IA degli Stati Uniti dovrebbe essere guidato da evidenze e astenersi dal promuovere divieti su deepfake politiche. Politiche legislative meno restrittive, come l’etichettatura e la filigrana, possono offrire un’alternativa, ma la loro efficacia rimane discutibile.
È cruciale che i policymaker e le aziende garantiscano l’accesso a dati di alta qualità per condurre studi più completi sull’impatto dei contenuti generati dall’IA. Inoltre, è fondamentale promuovere l’alfabetizzazione sui media e sull’IA, per dotare il pubblico delle competenze necessarie per interagire criticamente con i contenuti.
In conclusione, le leggi devono essere basate su evidenze e chiaramente articolate. Altrimenti, i policymaker rischiano di minare la libertà di espressione, la creatività e la satira, componenti vitali di un sano dibattito democratico.