AI nelle elezioni: un rischio da non sottovalutare

Il Rischio dell’Intelligenza Artificiale nelle Elezioni Canadesi

Un documento interno preparato per il commissario delle elezioni del Canada classifica l’uso dell’intelligenza artificiale (IA) come un rischio elevato per la campagna elettorale in corso. Questo avvertimento è stato formulato circa un mese prima dell’inizio della campagna.

Preoccupazioni sui Rischi dell’IA

Il documento evidenzia che la prossima elezione potrebbe generare denunce riguardanti l’uso di strumenti di IA, i quali potrebbero costituire una violazione della Legge sulle elezioni del Canada. È importante notare che la legge non vieta specificamente l’uso di IA, bot o deepfake, ma alcune disposizioni potrebbero essere applicabili se gli strumenti di IA vengono utilizzati in modi che violano la legge.

Possibili Violazioni

Le violazioni possono includere la diffusione di disinformazione, la pubblicazione di informazioni false sul processo elettorale o l’impersonificazione di un funzionario elettorale. Michael Litchfield, direttore del laboratorio di rischio e regolazione dell’IA presso l’Università di Victoria, ha osservato che ci sono difficoltà nel perseguire chi utilizza l’IA per violare le regole elettorali, incluso il rintracciare l’identità degli autori.

Deepfake e Rischi Aggiuntivi

Il briefing segnala preoccupazioni specifiche riguardo all’uso di deepfake, che sono video o audio falsi iperrealistici. Sebbene non ci siano stati incidenti documentati di deepfake utilizzati nelle elezioni federali canadesi, ci sono numerosi esempi di utilizzo all’estero, incluso un caso che ha coinvolto Kamala Harris durante le elezioni presidenziali statunitensi del 2024.

La Situazione Attuale

Il documento sottolinea che è stata osservata un’aumento della pubblicità per servizi di deepfake personalizzati sul web oscuro. L’impatto di un deepfake può dipendere da quanto viene circolato, aumentando la possibilità di disinformazione durante la campagna.

Durante una conferenza stampa all’inizio della campagna, il capo di Elections Canada ha sollevato preoccupazioni sull’uso dell’IA per diffondere disinformazione riguardante il processo elettorale. Il CEO Stéphane Perrault ha avvertito che le persone tendono a sovrastimare la loro capacità di rilevare i deepfake, il che rende la situazione ancora più preoccupante.

Regolamentazione e Autoregolamentazione

Il documento evidenzia che il Canada ha generalmente fatto affidamento su un approccio di autoregolamentazione per quanto riguarda l’IA, lasciando gran parte della responsabilità all’industria tecnologica. Tuttavia, l’efficacia di questo approccio è contestata, poiché è stato notato che anche i generatori di immagini IA più avanzati non sono riusciti a prevenire la creazione di immagini fuorvianti di elettori e schede.

Conclusioni

In un contesto in cui le violazioni delle regole elettorali non sono nuove, l’IA aggiunge una complessità ulteriore al panorama della campagna. L’uso di IA per fini benigni potrebbe alterare i modi in cui le campagne vengono condotte, portando a contenuti politici strani o non veritieri che possono confondere gli elettori.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...