Riforme agli appalti in Newfoundland e Labrador: una sfida alla governance dell’IA

OP-ED: Le riforme sugli acquisti dell’AI in Terranova e Labrador rivelano una nuova sfida di governance

Un rapporto di consulenza recentemente redatto per il governo di Terranova e Labrador ha suscitato attenzione per citazioni che non esistevano, sollevando interrogativi su come l’intelligenza artificiale possa essere stata utilizzata nella ricerca commissionata dalla provincia.

Il governo ha risposto inasprendo le regole di approvvigionamento, richiedendo ai fornitori di rivelare se vengono utilizzati strumenti di intelligenza artificiale nella preparazione dei rapporti e consentendo agli ufficiali di auditare tale utilizzo.

Una questione più profonda

Questo episodio mette in luce un problema più profondo. I sistemi di approvvigionamento pubblico continuano a valutare l’expertise utilizzando segnali di credibilità progettati per un mondo pre-AI. L’AI generativa introduce un nuovo modello di produzione della conoscenza in cui il giudizio umano e la sintesi automatica operano sempre più insieme.

Quando i governi commissionano studi importanti a società di consulenza, acquisiscono sia consigli strategici che credibilità istituzionale. L’autorità di un rapporto si basa tradizionalmente su segnali visibili di rigore metodologico: revisioni della letteratura, elenchi di riferimenti estesi, appendici metodologiche e documentazione dettagliata delle fonti. Questi segnali consentono ai funzionari pubblici di valutare se le conclusioni di un rapporto si basano su una ricerca seria piuttosto che su speculazioni e di valutare la credibilità dell’expertise dietro di esse.

Una volta che la sintesi assistita dall’AI entra nel flusso di lavoro della ricerca, quei segnali forniscono solo un quadro parziale di come è stata prodotta l’analisi sottostante.

Il cambiamento della produzione dell’expertise

Gli strumenti di intelligenza artificiale partecipano sempre più direttamente alla produzione di lavori analitici. Se utilizzati con attenzione e sotto supervisione adeguata, questi strumenti possono ampliare la velocità e l’ambito della ricerca. Allo stesso tempo, alterano la visibilità di come viene condotta l’analisi. Due rapporti possono apparire identici sulla carta. Uno può riflettere una verifica umana accurata di fonti e ragionamenti. L’altro può fare affidamento pesantemente sulla sintesi automatica con supervisione limitata.

I sistemi di approvvigionamento costruiti per un mondo di ricerca puramente umana faticano a distinguere tra questi processi.

La risposta del governo

È per questo che la risposta del governo di Terranova è importante. La provincia ora richiede ai fornitori che partecipano a lavori governativi di rivelare se saranno utilizzati strumenti di intelligenza artificiale e consente al governo di auditare tale utilizzo nei contratti.

Questa riforma introduce trasparenza su come viene condotta la ricerca quando i fondi pubblici supportano il lavoro di consulenza, rendendo possibile esaminare i metodi analitici dietro i rapporti anche quando strumenti assistiti dalla macchina partecipano al processo.

In questo senso, le riforme sugli acquisti della provincia rappresentano una risposta istituzionale precoce a un cambiamento più ampio nel modo in cui l’expertise stessa è prodotta e valutata. Pochi governi hanno ancora iniziato ad adattare i meccanismi di supervisione alla realtà che gli strumenti di intelligenza artificiale operano già all’interno del lavoro di ricerca e consulenza in molti settori.

I governi di tutto il paese spendono miliardi di dollari ogni anno commissionando studi di consulenza che influenzano decisioni su personale sanitario, pianificazione delle infrastrutture, politiche regolatorie e sviluppo economico. Questi studi spesso diventano la base analitica per importanti decisioni di politica pubblica all’interno del governo.

Implicazioni future

Man mano che gli strumenti di intelligenza artificiale diventano sempre più comuni nel lavoro di ricerca e consulenza, i sistemi di approvvigionamento di tutto il paese affronteranno la stessa sfida che Terranova ha incontrato: valutare non solo le conclusioni di un rapporto, ma anche il processo attraverso il quale l’expertise stessa è prodotta.

Una supervisione efficace richiederà regole di divulgazione più chiare, aspettative più forti per la verifica umana delle fonti e la capacità di auditare come viene prodotto il lavoro analitico. Queste misure consentono ai nuovi strumenti di ampliare le capacità di ricerca mantenendo la fiducia nei consigli esperti che informano le politiche pubbliche.

La recente controversia riguardante un rapporto governativo in Terranova potrebbe rivelarsi meno significativa per gli errori che ha esposto rispetto alle questioni di governance che ha sollevato. L’intelligenza artificiale continua a integrarsi all’interno del lavoro di ricerca e analisi sia nel settore pubblico che privato. Le istituzioni pubbliche devono adattare i meccanismi che utilizzano per valutare l’expertise all’interno di questo ambiente in evoluzione.

Le modifiche agli acquisti di Terranova suggeriscono che questa adattamento è già iniziato. I sistemi di approvvigionamento progettati per il ventesimo secolo devono ora adattarsi a governare un nuovo modello di expertise in cui il giudizio umano e la sintesi della macchina operano sempre più insieme.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...