La crisi della governance dell’AI: rischio di contenuti fuorvianti

Deloitte e il Problema dell’AI: Una Lezione di Governance

Circa un mese fa, sono emerse preoccupazioni riguardo a un rapporto prodotto da Deloitte per il governo federale australiano, che conteneva materiale non rintracciabile a fonti reali. Sono state segnalate multiple istanze di citazioni fittizie e di citazioni attribuite erroneamente, come riferimenti a documenti e sentenze giudiziarie che semplicemente non esistono. Un esempio è un’affermazione attribuita al Giudice Davies che non appare da nessuna parte nella relativa sentenza. Questa sospetta irregolarità ha spinto a un’ulteriore scrutini e Deloitte ha recentemente ammesso di aver utilizzato AI generativa nella produzione del rapporto, portandola a rimborsare parzialmente il governo e a emettere correzioni.

Il Fenomeno dell’AI Slop

Questo incidente non è isolato ma esemplifica un problema più profondo e crescente nell’uso dell’AI in contesti professionali: la normalizzazione della “AI slop”, ovvero contenuti generati dalle macchine che, sebbene appaiano rifiniti in superficie, presentano errori sostanziali e sfuggono all’attenzione perché sembrano credibili. Il caso Deloitte dovrebbe servire da monito: la capacità senza una supervisione adeguata è una responsabilità.

Critiche e Difese

Nella versione originale del rapporto di Deloitte, accademici hanno notato che diversi lavori citati da studiosi dell’Università di Sydney e di altre istituzioni non esistono, e che le citazioni legali erano distorte o fabbricate. Deloitte ha difeso i suoi risultati, ma ha riconosciuto la necessità di correggere le referenze. Quando è stata pubblicata la versione rivisitata, è stata inclusa una divulgazione dell’assistenza AI tramite Azure OpenAI GPT-4o. L’azienda ha mantenuto la sostanza del rapporto ma ha ammesso che note a piè di pagina e citazioni contenevano errori.

Il Caso di Sora 2 di OpenAI

In un altro contesto di utilizzo dell’AI, il modello Sora 2 di OpenAI ha riacceso i dibattiti su come i media generativi entrano nel discorso pubblico. Questo strumento consente agli utenti di generare brevi video da comandi, potenzialmente includendo volti e voci caricati. Alcuni dei suoi output iniziali sono stati scambiati dai visualizzatori per filmati reali, suscitando critiche riguardo all’etichettatura, alla proprietà intellettuale e al confine tra contenuto sintetico e autentico.

Fallimenti Istituzionali nella Governance AI

Il filo conduttore tra l’errore di Deloitte e la controversia di Sora 2 non è un fallimento tecnico; è un fallimento istituzionale nella governance del lavoro generato dall’AI. Nel caso di Deloitte, le affermazioni generate dall’AI sono arrivate a un deliverable per il cliente senza sufficiente verifica. Nel caso di Sora 2, i media sintetici stanno già affiorando nei feed pubblici senza chiara attribuzione o responsabilità. In entrambi i casi, il rischio risiede nel fatto che il contenuto scadente è indistinguibile da quello plausibile e rifinito, fino a quando qualcuno non indaga.

Il Costo Invisibile della “Workslop”

Recenti ricerche sull’uso dell’AI nei luoghi di lavoro quantificano il costo di questo problema. Secondo uno studio pubblicato dalla Harvard Business Review in collaborazione con BetterUp Labs, circa il 40% dei dipendenti intervistati ha incontrato contenuti generati dall’AI che richiedevano editing o correzione. In media, quegli eventi hanno consumato quasi due ore di lavoro aggiuntive e i destinatari hanno riportato una minore fiducia sia nel contenuto che nella persona che lo ha presentato. I ricercatori hanno definito questo fenomeno come una “tassa invisibile sulla produttività”.

La Necessità di una Governance Rigorosa

L’incidente di Deloitte è una versione ampliata della workslop entrante in un contratto governativo. In entrambi i casi, ciò che sembra rifinito può nascondere lacune, distorsioni o allucinazioni. Con l’aumento della fluidità e della persuasività dei modelli generativi, il carico di lavoro si sposta sempre più sugli esseri umani per catturare ciò che le macchine sbagliano.

Questa responsabilità non è distribuita equamente. Nel caso di Deloitte, la Senatrice del Laboratorio Deborah O’Neill ha definito l’episodio un “problema di intelligenza umana”, esortando chiunque desideri contrattare queste aziende a chiedere esattamente chi sta facendo il lavoro per cui stanno pagando, e a verificare che ci sia competenza senza uso di AI. Inoltre, il rapporto rivisitato ha aggiunto una nota metodologica che divulga l’uso di una catena di strumenti generativi AI licenziata tramite Azure OpenAI GPT-4o.

Conclusione

Se più organizzazioni adottano modelli generativi senza aggiornare le loro pipeline di verifica, il volume di “AI slop” potrebbe superare la loro capacità di catturarlo. Come notano gli studiosi della governance AI, molte organizzazioni mancano ancora di strutture come audit trail, responsabilità degli stakeholder o comitati di revisione interni. Solo una frazione delle imprese possiede meccanismi di supervisione a livello aziendale; un sondaggio suggerisce che solo il 18% delle organizzazioni ha un consiglio centralizzato autorizzato a prendere decisioni sulla governance responsabile dell’AI.

Il problema centrale non è che l’AI sia inutilizzabile, ma che l’uso dell’AI ha superato il controllo qualità. Nella pratica, molte organizzazioni enfatizzano l’accesso agli strumenti generativi (incoraggiando la sperimentazione) piuttosto che istituire protocolli rigorosi per la verifica o la divulgazione. Quegli strumenti vengono sempre più impiegati in contesti rivolti ai clienti o pubblici senza una disciplina parallela di revisione. Poiché i modelli generativi producono output fluenti e rifiniti, è facile che errori o fabbricazioni si mascherino come credibilità. Per mitigare questo rischio, l’output destinato alla consegna al cliente, alla comunicazione pubblica o al lavoro politico dovrebbe essere sottoposto a revisione per accuratezza fattuale, coerenza contestuale e integrità delle fonti.

La letteratura sulla governance raccomanda di registrare dove viene utilizzata l’AI, richiedere l’approvazione umana e costruire comitati di revisione per esaminare i contenuti generati dall’AI prima della loro pubblicazione. Nella pratica, alcune organizzazioni stanno esplorando comitati di revisione degli algoritmi o integrando la supervisione dell’AI nelle funzioni di conformità esistenti. Chiaramente, questo non è successo abbastanza rapidamente. La lezione di questi recenti casi è chiara: la tecnologia può avanzare rapidamente, ma i sistemi che la circondano stanno rimanendo indietro.

More Insights

Collaborazione e Competizione nell’Intelligenza Artificiale

Il progetto Red Cell mira a sfidare le assunzioni e il pensiero di gruppo nel contesto delle politiche di sicurezza nazionale degli Stati Uniti. L'era dell'intelligenza artificiale sta rimodellando il...

La nuova politica dell’IA in Pakistan: un futuro di innovazione e opportunità

Il Pakistan ha introdotto una politica nazionale ambiziosa per l'intelligenza artificiale, mirata a costruire un mercato domestico dell'IA da 2,7 miliardi di dollari in cinque anni. La politica si...

Governare l’etica dell’IA per un futuro sostenibile

La governance etica dell'IA è ora una priorità strategica che richiede il coinvolgimento attivo dei dirigenti e una collaborazione trasversale per garantire che i principi etici siano integrati in...

Strategie AI per l’Istruzione Superiore

L'intelligenza artificiale sta trasformando l'istruzione superiore, migliorando le strategie didattiche e rafforzando la sicurezza fisica. Le istituzioni devono bilanciare sperimentazione ed...

Governare l’AI per un futuro sostenibile in Africa

L'intelligenza artificiale (IA) non è più solo appannaggio delle economie avanzate; sta gradualmente plasmando i servizi finanziari, l'agricoltura, l'istruzione e persino il governo in Africa. La...

Il Contraccolpo dell’Intelligenza Artificiale

La trasformazione economica dell'IA è iniziata, con aziende come IBM e Salesforce che hanno ridotto il personale grazie all'automazione. Tuttavia, l'adozione dell'IA solleverà questioni politiche...

Etica del lavoro digitale: responsabilità nell’era dell’IA

Il lavoro digitale sta diventando sempre più comune, ma sono state implementate poche regole ampiamente accettate per governarlo. La sfida principale per i leader è gestire l'implementazione e la...

Strumento Petri: Auditing AI Sicuro e Automatizzato

Anthropic ha lanciato Petri, uno strumento open source per l'audit della sicurezza dell'IA, progettato per testare automaticamente i modelli di linguaggio di grandi dimensioni (LLM) per comportamenti...

L’armonia tra il Regolamento UE sull’IA e il GDPR

L'IA è la parola d'ordine onnipresente nel settore legale e l'Atto sull'IA dell'UE è uno dei principali argomenti di interesse per molti professionisti legali. Questo articolo esplora le interazioni...