AI e il Parlamento Europeo: un errore da non ripetere

Come non distribuire l’IA generativa: la storia del Parlamento Europeo

Il Parlamento Europeo ha recentemente preso una decisione controversa scegliendo un modello di intelligenza artificiale per gestire un nuovo archivio storico. Questo modello, fornito da Anthropic, è stato presentato come un’alternativa più affidabile rispetto a sistemi noti come Meta, Google e Open AI. Tuttavia, un’analisi approfondita ha rivelato che il Parlamento sta utilizzando una tecnologia di IA inaffidabile che produce risultati errati, senza alcun controllo da parte dell’istituzione.

Un’acquisto problematico: Claude

Il Parlamento ha acquistato Claude, un sistema che ha dimostrato di non essere in grado di fornire informazioni accurate, come chi è stato il primo presidente della Commissione Europea. Nel mese di ottobre 2024, l’ente ha scelto questo modello per il suo archivio, nonostante le preoccupazioni riguardanti la sua affidabilità.

Fede cieca nell’IA costituzionale di Anthropic

Il modello di IA di Anthropic, Claude, si basa su un approccio definito IA Costituzionale. Questo approccio utilizza principi selezionati da Anthropic, i quali si definiscono “utili, onesti e innocui”. Tuttavia, non è stata condotta alcuna valutazione indipendente per stabilire se questi criteri siano significativi o se il prodotto di Anthropic corrisponda alle sue affermazioni. Nonostante ciò, l’Unità Archivio del Parlamento tratta le affermazioni di Anthropic come verità sacrosanta.

I membri del Parlamento sono stati in prima linea nella proposta di regole nell’AI Act per affrontare i danni provenienti dai sistemi di IA generativa, come Claude. Tuttavia, invece di seguire le normative stabilite, l’Unità Archivio ha deciso di scommettere sulle affermazioni di Anthropic, come dimostrano i documenti esaminati.

Generatori di “bullshit” per l’accesso agli archivi

Il trattamento illecito dei dati personali non è l’unico problema con i modelli linguistici di grandi dimensioni (LLM). Questi sistemi tendono a memorizzare i dati di addestramento e a ripetere informazioni. Sono sistemi probabilistici che generano “bullshit”, il che significa che non dovrebbero essere utilizzati quando l’accuratezza delle informazioni è fondamentale.

Tuttavia, il Parlamento non ha valutato alternative non LLM. Ha “testato” solo due modelli LLM: Claude di Anthropic e Titan di Amazon. Inoltre, il Parlamento sembra essere intrappolato nell’ecosistema cloud di Amazon, affidandosi all’infrastruttura e al mercato di modelli di IA di Amazon.

La mancanza di valutazione del Parlamento

Prima di lanciare l’archivio “Chiedi agli Archivi EP”, il Parlamento avrebbe dovuto eseguire una serie di valutazioni. Sorprendentemente, non ha effettuato una valutazione del sistema per l’uso da parte del pubblico generale. La mancanza di una valutazione del rischio, dell’impatto sulla protezione dei dati o di una valutazione ambientale adeguata è allarmante. Inoltre, il Parlamento dipende dalla sicurezza tramite redazione.

Chi ha il controllo?

Nonostante il fallimento nel valutare lo strumento prima della distribuzione, Anthropic ha elencato il Parlamento come uno dei suoi clienti. Tuttavia, non esistono contratti diretti tra il Parlamento e Anthropic. Il Parlamento utilizza i servizi attraverso la Commissione Europea, che ha un contratto con Amazon AWS, ma non con Anthropic.

Il capo dell’Unità Archivio del Parlamento ha affermato che, se utilizziamo l’IA generativa, dobbiamo essere sempre sotto il controllo della soluzione che abbiamo costruito. Tuttavia, il Parlamento non ha il controllo reale; dipende dall’infrastruttura di Amazon.

Conclusione

Il caso del Parlamento Europeo evidenzia le sfide e le insidie nell’adozione di tecnologie di IA generativa. La mancanza di valutazioni adeguate prima dell’implementazione e la dipendenza da fornitori esterni sollevano interrogativi critici sulla responsabilità e sull’affidabilità di tali sistemi.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...