Deloitte e il Problema dell’AI: Una Lezione di Governance
Circa un mese fa, sono emerse preoccupazioni riguardo a un rapporto prodotto da Deloitte per il governo federale australiano, che conteneva materiale non rintracciabile a fonti reali. Sono state segnalate multiple istanze di citazioni fittizie e di citazioni attribuite erroneamente, come riferimenti a documenti e sentenze giudiziarie che semplicemente non esistono. Un esempio è un’affermazione attribuita al Giudice Davies che non appare da nessuna parte nella relativa sentenza. Questa sospetta irregolarità ha spinto a un’ulteriore scrutini e Deloitte ha recentemente ammesso di aver utilizzato AI generativa nella produzione del rapporto, portandola a rimborsare parzialmente il governo e a emettere correzioni.
Il Fenomeno dell’AI Slop
Questo incidente non è isolato ma esemplifica un problema più profondo e crescente nell’uso dell’AI in contesti professionali: la normalizzazione della “AI slop”, ovvero contenuti generati dalle macchine che, sebbene appaiano rifiniti in superficie, presentano errori sostanziali e sfuggono all’attenzione perché sembrano credibili. Il caso Deloitte dovrebbe servire da monito: la capacità senza una supervisione adeguata è una responsabilità.
Critiche e Difese
Nella versione originale del rapporto di Deloitte, accademici hanno notato che diversi lavori citati da studiosi dell’Università di Sydney e di altre istituzioni non esistono, e che le citazioni legali erano distorte o fabbricate. Deloitte ha difeso i suoi risultati, ma ha riconosciuto la necessità di correggere le referenze. Quando è stata pubblicata la versione rivisitata, è stata inclusa una divulgazione dell’assistenza AI tramite Azure OpenAI GPT-4o. L’azienda ha mantenuto la sostanza del rapporto ma ha ammesso che note a piè di pagina e citazioni contenevano errori.
Il Caso di Sora 2 di OpenAI
In un altro contesto di utilizzo dell’AI, il modello Sora 2 di OpenAI ha riacceso i dibattiti su come i media generativi entrano nel discorso pubblico. Questo strumento consente agli utenti di generare brevi video da comandi, potenzialmente includendo volti e voci caricati. Alcuni dei suoi output iniziali sono stati scambiati dai visualizzatori per filmati reali, suscitando critiche riguardo all’etichettatura, alla proprietà intellettuale e al confine tra contenuto sintetico e autentico.
Fallimenti Istituzionali nella Governance AI
Il filo conduttore tra l’errore di Deloitte e la controversia di Sora 2 non è un fallimento tecnico; è un fallimento istituzionale nella governance del lavoro generato dall’AI. Nel caso di Deloitte, le affermazioni generate dall’AI sono arrivate a un deliverable per il cliente senza sufficiente verifica. Nel caso di Sora 2, i media sintetici stanno già affiorando nei feed pubblici senza chiara attribuzione o responsabilità. In entrambi i casi, il rischio risiede nel fatto che il contenuto scadente è indistinguibile da quello plausibile e rifinito, fino a quando qualcuno non indaga.
Il Costo Invisibile della “Workslop”
Recenti ricerche sull’uso dell’AI nei luoghi di lavoro quantificano il costo di questo problema. Secondo uno studio pubblicato dalla Harvard Business Review in collaborazione con BetterUp Labs, circa il 40% dei dipendenti intervistati ha incontrato contenuti generati dall’AI che richiedevano editing o correzione. In media, quegli eventi hanno consumato quasi due ore di lavoro aggiuntive e i destinatari hanno riportato una minore fiducia sia nel contenuto che nella persona che lo ha presentato. I ricercatori hanno definito questo fenomeno come una “tassa invisibile sulla produttività”.
La Necessità di una Governance Rigorosa
L’incidente di Deloitte è una versione ampliata della workslop entrante in un contratto governativo. In entrambi i casi, ciò che sembra rifinito può nascondere lacune, distorsioni o allucinazioni. Con l’aumento della fluidità e della persuasività dei modelli generativi, il carico di lavoro si sposta sempre più sugli esseri umani per catturare ciò che le macchine sbagliano.
Questa responsabilità non è distribuita equamente. Nel caso di Deloitte, la Senatrice del Laboratorio Deborah O’Neill ha definito l’episodio un “problema di intelligenza umana”, esortando chiunque desideri contrattare queste aziende a chiedere esattamente chi sta facendo il lavoro per cui stanno pagando, e a verificare che ci sia competenza senza uso di AI. Inoltre, il rapporto rivisitato ha aggiunto una nota metodologica che divulga l’uso di una catena di strumenti generativi AI licenziata tramite Azure OpenAI GPT-4o.
Conclusione
Se più organizzazioni adottano modelli generativi senza aggiornare le loro pipeline di verifica, il volume di “AI slop” potrebbe superare la loro capacità di catturarlo. Come notano gli studiosi della governance AI, molte organizzazioni mancano ancora di strutture come audit trail, responsabilità degli stakeholder o comitati di revisione interni. Solo una frazione delle imprese possiede meccanismi di supervisione a livello aziendale; un sondaggio suggerisce che solo il 18% delle organizzazioni ha un consiglio centralizzato autorizzato a prendere decisioni sulla governance responsabile dell’AI.
Il problema centrale non è che l’AI sia inutilizzabile, ma che l’uso dell’AI ha superato il controllo qualità. Nella pratica, molte organizzazioni enfatizzano l’accesso agli strumenti generativi (incoraggiando la sperimentazione) piuttosto che istituire protocolli rigorosi per la verifica o la divulgazione. Quegli strumenti vengono sempre più impiegati in contesti rivolti ai clienti o pubblici senza una disciplina parallela di revisione. Poiché i modelli generativi producono output fluenti e rifiniti, è facile che errori o fabbricazioni si mascherino come credibilità. Per mitigare questo rischio, l’output destinato alla consegna al cliente, alla comunicazione pubblica o al lavoro politico dovrebbe essere sottoposto a revisione per accuratezza fattuale, coerenza contestuale e integrità delle fonti.
La letteratura sulla governance raccomanda di registrare dove viene utilizzata l’AI, richiedere l’approvazione umana e costruire comitati di revisione per esaminare i contenuti generati dall’AI prima della loro pubblicazione. Nella pratica, alcune organizzazioni stanno esplorando comitati di revisione degli algoritmi o integrando la supervisione dell’AI nelle funzioni di conformità esistenti. Chiaramente, questo non è successo abbastanza rapidamente. La lezione di questi recenti casi è chiara: la tecnologia può avanzare rapidamente, ma i sistemi che la circondano stanno rimanendo indietro.