Una Tabella di Marcia Governativa per un’IA Intelligente, Sicura ed Etica
Il governo federale desidera potenziare la produttività lanciando l’intelligenza artificiale (IA) “su larga scala”. Questo include la modernizzazione del servizio pubblico con strumenti di IA. In linea di principio, ciò è ben accolto. I modelli di IA predittiva potrebbero anticipare i cambiamenti nelle tendenze sanitarie, migliorare le previsioni fiscali e aiutare a rilevare le frodi fiscali, tra le altre applicazioni.
Gli strumenti di elaborazione del linguaggio naturale potrebbero consentire consultazioni più ampie sulle decisioni governative. Tuttavia, queste opportunità arrivano con un avvertimento: senza un lancio ponderato e una leadership capace in materia di IA, rischiamo di spendere fondi pubblici per inseguire strumenti nuovi e scintillanti a scapito del reale progresso.
Le Complessità dei Sistemi di IA
I sistemi di IA non sono strumenti “da impostare e dimenticare”. Si tratta di sistemi complessi e dinamici che sollevano seri interrogativi riguardanti privacy, etica e responsabilità. Richiedono team di esperti diversificati — dagli auditor degli algoritmi agli advisor etici — per funzionare correttamente.
La innovazione nell’IA avviene a una velocità vertiginosa. Lo stesso vale per la gestione e la governance, con nuove tecniche per la mitigazione dei bias e la protezione della privacy che emergono costantemente. Se l’IA viene lanciata troppo rapidamente e senza sufficiente esperienza interna, l’adozione dell’IA pone rischi e i governi potrebbero rimanere indietro rispetto ai sistemi che sperano di controllare.
Costruire Capacità nei Dipartimenti Governativi
Sebbene la creazione di un hub centrale per l’IA sia un passo importante, è ancora essenziale costruire capacità nei dipartimenti governativi. Molti dipartimenti stanno rafforzando le proprie capacità, ma il ritmo dello sviluppo dell’IA e il livello di supervisione necessario rappresentano una sfida per i team che cercano di valutare gli strumenti, gestire i rischi o decidere dove e come l’IA dovrebbe essere implementata.
Questo non riguarda il trasformare i dipartimenti in laboratori tecnologici. Si tratta di garantire che le decisioni relative all’IA siano radicate nella conoscenza e nelle realtà operative.
Impatto Ambientale e Sostenibilità
Non possiamo ignorare l’enorme impronta di carbonio dell’IA. Un lancio dell’IA a livello governativo senza considerare le emissioni potrebbe minare gli impegni climatici del Canada. Il governo federale ha riconosciuto questa sfida nella sua nuova Strategia di Calcolo IA Sovrana, che si impegna a costruire capacità di calcolo controllate dal Canada e alimentate da energia pulita. Questo è un passo critico, ma necessità di attuazione.
L’impatto ambientale deve essere un vincolo di progettazione, non un pensiero successivo. Ciò significa privilegiare modelli energeticamente efficienti, installare infrastrutture in aree con abbondante energia pulita e essere selettivi su quando e dove utilizzare l’IA.
Governanza e Trasparenza
La credibilità degli sforzi di modernizzazione dell’IA dipende dalla garanzia che la produttività non venga a scapito degli obiettivi climatici o della sovranità digitale. Ogni implementazione dell’IA deve essere governata da una supervisione robusta e trasparente. Un insieme crescente di politiche, regolamenti e istituzioni può garantire che i sistemi di IA utilizzati nell’economia siano trasparenti, responsabili e sicuri.
Quando si impostano strumenti di IA nel governo, deve essere applicato lo stesso livello di supervisione. Ciò include spiegare pubblicamente come funzionano i sistemi, quali rischi presentano e come saranno monitorati.
In Canada, è necessaria una valutazione del rischio iniziale attraverso ciò che è noto come valutazione d’impatto algoritmica, un requisito previsto dalla Direttiva del Tesoro sugli Automatismi Decisionali.
Tuttavia, l’applicazione di uno strumento politico, piuttosto che legislativo, ha bisogno di meccanismi di responsabilità. Ha anche bisogno di organi indipendenti per poter indagare sulla non conformità, come farebbe all’interno di un quadro legislativo.
Costruire Fiducia nelle Istituzioni Pubbliche
In un momento in cui la fiducia nelle istituzioni pubbliche è bassa, questo livello di trasparenza non è un’opzione. Costruire su questi primi passi è essenziale per rafforzare la fiducia pubblica e migliorare i sistemi.
Queste sfide mostrano che senza una leadership incorporata nell’IA, i dipartimenti rischiano di fare affidamento su soluzioni pronte all’uso o di fare eccessivo affidamento sui consulenti. Ciò può essere costoso e non sostenibile per strumenti di IA orientati alla politica che richiedono aggiornamenti e adattamenti regolari.
Promuovere una Leadership Interna nell’IA
Ogni ministero dovrebbe sviluppare la capacità di gestire l’adozione dell’IA, ad esempio, nominando un direttore dell’IA. Questi funzionari sovraintenderebbero allo sviluppo, implementazione e governance dell’IA e condivideranno conoscenze per accelerare l’apprendimento, tutto in coordinamento con l’hub centrale per l’IA.
Questo modello di rete di leadership nell’IA garantirebbe che l’expertise di settore informi le decisioni tecniche e permetterebbe al governo di prendere decisioni più deliberate su dove l’uso dell’IA sia appropriato.
Conclusione
La storia orgogliosa del Canada nella ricerca sull’IA riflette la nostra creatività e rigore accademico. Tuttavia, l’eccellenza nella ricerca da sola non garantisce un’implementazione sicura o efficace dell’IA nel settore pubblico — gli avvertimenti di alcuni dei nostri più brillanti pionieri dell’IA attestano questa verità.
Il percorso da seguire è chiaro: una modernizzazione mirata e deliberata che incorpori la conoscenza dell’IA, bilanci l’innovazione con principi etici e democratici e tratti gli impatti ambientali come vincoli fondamentali di progettazione.
Questo approccio consentirebbe al governo di modernizzarsi selettivamente e strategicamente e migliorare i servizi senza sacrificare equità, responsabilità o sostenibilità.
Qualsiasi cosa di meno e rischiamo di scambiare i dollari dei contribuenti per una parata di esperimenti costosi i cui benefici potrebbero non materializzarsi mai, o peggio, i cui pericoli diventeranno fin troppo evidenti.