Bilanciare promesse e rischi: perché l’Alberta ha bisogno di una propria legge sull’IA
Negli ultimi anni, l’intelligenza artificiale (IA) ha permeato ogni aspetto della nostra vita quotidiana, influenzando tutto, dalle classi universitarie ai contenuti sui social media. I leader tecnologici e i responsabili politici sostengono che sia inevitabile, parte di un progresso tecnologico che non possiamo evitare, e che qualsiasi resistenza ostacoli inutilmente la crescita. Tuttavia, i rischi associati rimangono spesso nascosti sotto il velo dell’innovazione e della convenienza.
L’IA ha il potenziale per generare molti avanzamenti, ma senza misure di sicurezza può causare più danni che benefici. È fondamentale che l’Alberta regolamenti l’IA attraverso una legge provinciale su misura per le esigenze specifiche della regione. Questo garantirebbe il massimo beneficio evitando i pericoli di una tecnologia incontrollata.
Governanza dell’IA come salvaguardia
La governanza dell’IA dovrebbe fungere da salvaguardia. La professoressa dell’Università dell’Alberta, Blair Attard-Frost, descrive questo approccio come un metodo per massimizzare i benefici e minimizzare i danni che i sistemi di IA possono causare a individui e gruppi. Tuttavia, gran parte della governance dell’IA non riesce a rispondere alle esigenze della società civile, escludendo spesso del tutto il contributo dei cittadini.
Attard-Frost, attraverso il suo lavoro sulla contro-governanza, sottolinea che le comunità devono avere il potere di mettere in discussione e modificare i sistemi di IA che perpetuano danni. Senza queste verifiche, l’IA può rafforzare le disuguaglianze, sfruttare i dati personali e prendere decisioni senza comprendere l’impatto sulla vita delle persone. Questo è già evidente nelle industrie creative, dove l’IA generativa è stata addestrata su milioni di opere di artisti senza consenso o compenso, sollevando gravi interrogativi etici riguardo alla proprietà intellettuale.
Casi specifici in Alberta
L’Alberta si trova di fronte a circostanze uniche che rendono necessaria una legislazione provinciale. Un esempio chiaro è l’uso da parte del Servizio di Polizia di Edmonton di un’IA generativa per creare un’immagine facciale di un sospetto basata su fenotipizzazione del DNA. Questa immagine è stata ampiamente criticata per aver rafforzato il profilo razziale, e la piattaforma è stata successivamente costretta a rimuoverla. Questo dimostra come una singola decisione di IA non regolamentata possa avere conseguenze significative, specialmente per le comunità emarginate.
Il governo federale canadese ha fatto i primi passi per regolare l’IA attraverso il suo proposto Bill C-27, l’Artificial Intelligence and Data Act (AIDA). Tuttavia, a causa delle recenti elezioni anticipate del 2025, tutte le fatture in sospeso, inclusa questa, non sono state implementate. Inoltre, l’AIDA presenta troppe lacune, con definizioni vaghe di ciò che conta come sistemi “ad alto impatto”. Inoltre, il settore pubblico, compresi sanità, istruzione e polizia, è escluso dall’AIDA, un trend simile a quello riscontrato nell’AI Act dell’Unione Europea.
Critiche e prospettive
Sebbene siano stati fatti dei progressi, i critici giustamente evidenziano come molti gruppi di lobby siano riusciti a deregolare aspetti dell’atto, lasciando aperte innumerevoli scappatoie. Ciò include la possibilità per le aziende di determinare le proprie classificazioni per evitare regole più severe per i sistemi classificati come ad alto rischio, l’auto-valutazione interna invece di audit esterni e le eccezioni per le forze dell’ordine.
Le lacune lasciate da governi più grandi nella loro legislazione dimostrano gli errori che l’Alberta deve evitare. L’Ufficio del Commissario per l’Informazione e la Privacy dell’Alberta (OIPAC) ha già raccomandato delle salvaguardie che una legge provinciale sull’IA potrebbe adottare. Queste includono opzioni di opt-out per gli individui, trasparenza su quando e come viene utilizzata l’IA e linee chiare di responsabilità per le decisioni prese dagli algoritmi. Implementare queste misure non rallenterebbe l’innovazione; al contrario, favorirebbe la fiducia del pubblico e stabilirebbe standard per sviluppatori e aziende.
Poiché l’IA sta già plasmando le nostre vite quotidiane e continuerà a crescere, è essenziale che l’Alberta stabilisca leggi locali solide per mitigare i rischi per i diritti alla privacy e ulteriori problemi di discriminazione. L’Alberta ha un’opportunità unica di costruire un quadro normativo che protegga i cittadini garantendo al contempo l’innovazione. Solo attraverso questa legislazione gli Albertani potranno realmente beneficiare degli aspetti positivi dell’IA.