La crisi della governance dell’AI: rischio di contenuti fuorvianti

Deloitte e il Problema dell’AI: Una Lezione di Governance

Circa un mese fa, sono emerse preoccupazioni riguardo a un rapporto prodotto da Deloitte per il governo federale australiano, che conteneva materiale non rintracciabile a fonti reali. Sono state segnalate multiple istanze di citazioni fittizie e di citazioni attribuite erroneamente, come riferimenti a documenti e sentenze giudiziarie che semplicemente non esistono. Un esempio è un’affermazione attribuita al Giudice Davies che non appare da nessuna parte nella relativa sentenza. Questa sospetta irregolarità ha spinto a un’ulteriore scrutini e Deloitte ha recentemente ammesso di aver utilizzato AI generativa nella produzione del rapporto, portandola a rimborsare parzialmente il governo e a emettere correzioni.

Il Fenomeno dell’AI Slop

Questo incidente non è isolato ma esemplifica un problema più profondo e crescente nell’uso dell’AI in contesti professionali: la normalizzazione della “AI slop”, ovvero contenuti generati dalle macchine che, sebbene appaiano rifiniti in superficie, presentano errori sostanziali e sfuggono all’attenzione perché sembrano credibili. Il caso Deloitte dovrebbe servire da monito: la capacità senza una supervisione adeguata è una responsabilità.

Critiche e Difese

Nella versione originale del rapporto di Deloitte, accademici hanno notato che diversi lavori citati da studiosi dell’Università di Sydney e di altre istituzioni non esistono, e che le citazioni legali erano distorte o fabbricate. Deloitte ha difeso i suoi risultati, ma ha riconosciuto la necessità di correggere le referenze. Quando è stata pubblicata la versione rivisitata, è stata inclusa una divulgazione dell’assistenza AI tramite Azure OpenAI GPT-4o. L’azienda ha mantenuto la sostanza del rapporto ma ha ammesso che note a piè di pagina e citazioni contenevano errori.

Il Caso di Sora 2 di OpenAI

In un altro contesto di utilizzo dell’AI, il modello Sora 2 di OpenAI ha riacceso i dibattiti su come i media generativi entrano nel discorso pubblico. Questo strumento consente agli utenti di generare brevi video da comandi, potenzialmente includendo volti e voci caricati. Alcuni dei suoi output iniziali sono stati scambiati dai visualizzatori per filmati reali, suscitando critiche riguardo all’etichettatura, alla proprietà intellettuale e al confine tra contenuto sintetico e autentico.

Fallimenti Istituzionali nella Governance AI

Il filo conduttore tra l’errore di Deloitte e la controversia di Sora 2 non è un fallimento tecnico; è un fallimento istituzionale nella governance del lavoro generato dall’AI. Nel caso di Deloitte, le affermazioni generate dall’AI sono arrivate a un deliverable per il cliente senza sufficiente verifica. Nel caso di Sora 2, i media sintetici stanno già affiorando nei feed pubblici senza chiara attribuzione o responsabilità. In entrambi i casi, il rischio risiede nel fatto che il contenuto scadente è indistinguibile da quello plausibile e rifinito, fino a quando qualcuno non indaga.

Il Costo Invisibile della “Workslop”

Recenti ricerche sull’uso dell’AI nei luoghi di lavoro quantificano il costo di questo problema. Secondo uno studio pubblicato dalla Harvard Business Review in collaborazione con BetterUp Labs, circa il 40% dei dipendenti intervistati ha incontrato contenuti generati dall’AI che richiedevano editing o correzione. In media, quegli eventi hanno consumato quasi due ore di lavoro aggiuntive e i destinatari hanno riportato una minore fiducia sia nel contenuto che nella persona che lo ha presentato. I ricercatori hanno definito questo fenomeno come una “tassa invisibile sulla produttività”.

La Necessità di una Governance Rigorosa

L’incidente di Deloitte è una versione ampliata della workslop entrante in un contratto governativo. In entrambi i casi, ciò che sembra rifinito può nascondere lacune, distorsioni o allucinazioni. Con l’aumento della fluidità e della persuasività dei modelli generativi, il carico di lavoro si sposta sempre più sugli esseri umani per catturare ciò che le macchine sbagliano.

Questa responsabilità non è distribuita equamente. Nel caso di Deloitte, la Senatrice del Laboratorio Deborah O’Neill ha definito l’episodio un “problema di intelligenza umana”, esortando chiunque desideri contrattare queste aziende a chiedere esattamente chi sta facendo il lavoro per cui stanno pagando, e a verificare che ci sia competenza senza uso di AI. Inoltre, il rapporto rivisitato ha aggiunto una nota metodologica che divulga l’uso di una catena di strumenti generativi AI licenziata tramite Azure OpenAI GPT-4o.

Conclusione

Se più organizzazioni adottano modelli generativi senza aggiornare le loro pipeline di verifica, il volume di “AI slop” potrebbe superare la loro capacità di catturarlo. Come notano gli studiosi della governance AI, molte organizzazioni mancano ancora di strutture come audit trail, responsabilità degli stakeholder o comitati di revisione interni. Solo una frazione delle imprese possiede meccanismi di supervisione a livello aziendale; un sondaggio suggerisce che solo il 18% delle organizzazioni ha un consiglio centralizzato autorizzato a prendere decisioni sulla governance responsabile dell’AI.

Il problema centrale non è che l’AI sia inutilizzabile, ma che l’uso dell’AI ha superato il controllo qualità. Nella pratica, molte organizzazioni enfatizzano l’accesso agli strumenti generativi (incoraggiando la sperimentazione) piuttosto che istituire protocolli rigorosi per la verifica o la divulgazione. Quegli strumenti vengono sempre più impiegati in contesti rivolti ai clienti o pubblici senza una disciplina parallela di revisione. Poiché i modelli generativi producono output fluenti e rifiniti, è facile che errori o fabbricazioni si mascherino come credibilità. Per mitigare questo rischio, l’output destinato alla consegna al cliente, alla comunicazione pubblica o al lavoro politico dovrebbe essere sottoposto a revisione per accuratezza fattuale, coerenza contestuale e integrità delle fonti.

La letteratura sulla governance raccomanda di registrare dove viene utilizzata l’AI, richiedere l’approvazione umana e costruire comitati di revisione per esaminare i contenuti generati dall’AI prima della loro pubblicazione. Nella pratica, alcune organizzazioni stanno esplorando comitati di revisione degli algoritmi o integrando la supervisione dell’AI nelle funzioni di conformità esistenti. Chiaramente, questo non è successo abbastanza rapidamente. La lezione di questi recenti casi è chiara: la tecnologia può avanzare rapidamente, ma i sistemi che la circondano stanno rimanendo indietro.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...