OP-ED: Le riforme sugli acquisti dell’AI in Terranova e Labrador rivelano una nuova sfida di governance
Un rapporto di consulenza recentemente redatto per il governo di Terranova e Labrador ha suscitato attenzione per citazioni che non esistevano, sollevando interrogativi su come l’intelligenza artificiale possa essere stata utilizzata nella ricerca commissionata dalla provincia.
Il governo ha risposto inasprendo le regole di approvvigionamento, richiedendo ai fornitori di rivelare se vengono utilizzati strumenti di intelligenza artificiale nella preparazione dei rapporti e consentendo agli ufficiali di auditare tale utilizzo.
Una questione più profonda
Questo episodio mette in luce un problema più profondo. I sistemi di approvvigionamento pubblico continuano a valutare l’expertise utilizzando segnali di credibilità progettati per un mondo pre-AI. L’AI generativa introduce un nuovo modello di produzione della conoscenza in cui il giudizio umano e la sintesi automatica operano sempre più insieme.
Quando i governi commissionano studi importanti a società di consulenza, acquisiscono sia consigli strategici che credibilità istituzionale. L’autorità di un rapporto si basa tradizionalmente su segnali visibili di rigore metodologico: revisioni della letteratura, elenchi di riferimenti estesi, appendici metodologiche e documentazione dettagliata delle fonti. Questi segnali consentono ai funzionari pubblici di valutare se le conclusioni di un rapporto si basano su una ricerca seria piuttosto che su speculazioni e di valutare la credibilità dell’expertise dietro di esse.
Una volta che la sintesi assistita dall’AI entra nel flusso di lavoro della ricerca, quei segnali forniscono solo un quadro parziale di come è stata prodotta l’analisi sottostante.
Il cambiamento della produzione dell’expertise
Gli strumenti di intelligenza artificiale partecipano sempre più direttamente alla produzione di lavori analitici. Se utilizzati con attenzione e sotto supervisione adeguata, questi strumenti possono ampliare la velocità e l’ambito della ricerca. Allo stesso tempo, alterano la visibilità di come viene condotta l’analisi. Due rapporti possono apparire identici sulla carta. Uno può riflettere una verifica umana accurata di fonti e ragionamenti. L’altro può fare affidamento pesantemente sulla sintesi automatica con supervisione limitata.
I sistemi di approvvigionamento costruiti per un mondo di ricerca puramente umana faticano a distinguere tra questi processi.
La risposta del governo
È per questo che la risposta del governo di Terranova è importante. La provincia ora richiede ai fornitori che partecipano a lavori governativi di rivelare se saranno utilizzati strumenti di intelligenza artificiale e consente al governo di auditare tale utilizzo nei contratti.
Questa riforma introduce trasparenza su come viene condotta la ricerca quando i fondi pubblici supportano il lavoro di consulenza, rendendo possibile esaminare i metodi analitici dietro i rapporti anche quando strumenti assistiti dalla macchina partecipano al processo.
In questo senso, le riforme sugli acquisti della provincia rappresentano una risposta istituzionale precoce a un cambiamento più ampio nel modo in cui l’expertise stessa è prodotta e valutata. Pochi governi hanno ancora iniziato ad adattare i meccanismi di supervisione alla realtà che gli strumenti di intelligenza artificiale operano già all’interno del lavoro di ricerca e consulenza in molti settori.
I governi di tutto il paese spendono miliardi di dollari ogni anno commissionando studi di consulenza che influenzano decisioni su personale sanitario, pianificazione delle infrastrutture, politiche regolatorie e sviluppo economico. Questi studi spesso diventano la base analitica per importanti decisioni di politica pubblica all’interno del governo.
Implicazioni future
Man mano che gli strumenti di intelligenza artificiale diventano sempre più comuni nel lavoro di ricerca e consulenza, i sistemi di approvvigionamento di tutto il paese affronteranno la stessa sfida che Terranova ha incontrato: valutare non solo le conclusioni di un rapporto, ma anche il processo attraverso il quale l’expertise stessa è prodotta.
Una supervisione efficace richiederà regole di divulgazione più chiare, aspettative più forti per la verifica umana delle fonti e la capacità di auditare come viene prodotto il lavoro analitico. Queste misure consentono ai nuovi strumenti di ampliare le capacità di ricerca mantenendo la fiducia nei consigli esperti che informano le politiche pubbliche.
La recente controversia riguardante un rapporto governativo in Terranova potrebbe rivelarsi meno significativa per gli errori che ha esposto rispetto alle questioni di governance che ha sollevato. L’intelligenza artificiale continua a integrarsi all’interno del lavoro di ricerca e analisi sia nel settore pubblico che privato. Le istituzioni pubbliche devono adattare i meccanismi che utilizzano per valutare l’expertise all’interno di questo ambiente in evoluzione.
Le modifiche agli acquisti di Terranova suggeriscono che questa adattamento è già iniziato. I sistemi di approvvigionamento progettati per il ventesimo secolo devono ora adattarsi a governare un nuovo modello di expertise in cui il giudizio umano e la sintesi della macchina operano sempre più insieme.