Come non distribuire l’IA generativa: la storia del Parlamento Europeo
Il Parlamento Europeo ha recentemente preso una decisione controversa scegliendo un modello di intelligenza artificiale per gestire un nuovo archivio storico. Questo modello, fornito da Anthropic, è stato presentato come un’alternativa più affidabile rispetto a sistemi noti come Meta, Google e Open AI. Tuttavia, un’analisi approfondita ha rivelato che il Parlamento sta utilizzando una tecnologia di IA inaffidabile che produce risultati errati, senza alcun controllo da parte dell’istituzione.
Un’acquisto problematico: Claude
Il Parlamento ha acquistato Claude, un sistema che ha dimostrato di non essere in grado di fornire informazioni accurate, come chi è stato il primo presidente della Commissione Europea. Nel mese di ottobre 2024, l’ente ha scelto questo modello per il suo archivio, nonostante le preoccupazioni riguardanti la sua affidabilità.
Fede cieca nell’IA costituzionale di Anthropic
Il modello di IA di Anthropic, Claude, si basa su un approccio definito IA Costituzionale. Questo approccio utilizza principi selezionati da Anthropic, i quali si definiscono “utili, onesti e innocui”. Tuttavia, non è stata condotta alcuna valutazione indipendente per stabilire se questi criteri siano significativi o se il prodotto di Anthropic corrisponda alle sue affermazioni. Nonostante ciò, l’Unità Archivio del Parlamento tratta le affermazioni di Anthropic come verità sacrosanta.
I membri del Parlamento sono stati in prima linea nella proposta di regole nell’AI Act per affrontare i danni provenienti dai sistemi di IA generativa, come Claude. Tuttavia, invece di seguire le normative stabilite, l’Unità Archivio ha deciso di scommettere sulle affermazioni di Anthropic, come dimostrano i documenti esaminati.
Generatori di “bullshit” per l’accesso agli archivi
Il trattamento illecito dei dati personali non è l’unico problema con i modelli linguistici di grandi dimensioni (LLM). Questi sistemi tendono a memorizzare i dati di addestramento e a ripetere informazioni. Sono sistemi probabilistici che generano “bullshit”, il che significa che non dovrebbero essere utilizzati quando l’accuratezza delle informazioni è fondamentale.
Tuttavia, il Parlamento non ha valutato alternative non LLM. Ha “testato” solo due modelli LLM: Claude di Anthropic e Titan di Amazon. Inoltre, il Parlamento sembra essere intrappolato nell’ecosistema cloud di Amazon, affidandosi all’infrastruttura e al mercato di modelli di IA di Amazon.
La mancanza di valutazione del Parlamento
Prima di lanciare l’archivio “Chiedi agli Archivi EP”, il Parlamento avrebbe dovuto eseguire una serie di valutazioni. Sorprendentemente, non ha effettuato una valutazione del sistema per l’uso da parte del pubblico generale. La mancanza di una valutazione del rischio, dell’impatto sulla protezione dei dati o di una valutazione ambientale adeguata è allarmante. Inoltre, il Parlamento dipende dalla sicurezza tramite redazione.
Chi ha il controllo?
Nonostante il fallimento nel valutare lo strumento prima della distribuzione, Anthropic ha elencato il Parlamento come uno dei suoi clienti. Tuttavia, non esistono contratti diretti tra il Parlamento e Anthropic. Il Parlamento utilizza i servizi attraverso la Commissione Europea, che ha un contratto con Amazon AWS, ma non con Anthropic.
Il capo dell’Unità Archivio del Parlamento ha affermato che, se utilizziamo l’IA generativa, dobbiamo essere sempre sotto il controllo della soluzione che abbiamo costruito. Tuttavia, il Parlamento non ha il controllo reale; dipende dall’infrastruttura di Amazon.
Conclusione
Il caso del Parlamento Europeo evidenzia le sfide e le insidie nell’adozione di tecnologie di IA generativa. La mancanza di valutazioni adeguate prima dell’implementazione e la dipendenza da fornitori esterni sollevano interrogativi critici sulla responsabilità e sull’affidabilità di tali sistemi.