AI e il Parlamento Europeo: un errore da non ripetere

Come non distribuire l’IA generativa: la storia del Parlamento Europeo

Il Parlamento Europeo ha recentemente preso una decisione controversa scegliendo un modello di intelligenza artificiale per gestire un nuovo archivio storico. Questo modello, fornito da Anthropic, è stato presentato come un’alternativa più affidabile rispetto a sistemi noti come Meta, Google e Open AI. Tuttavia, un’analisi approfondita ha rivelato che il Parlamento sta utilizzando una tecnologia di IA inaffidabile che produce risultati errati, senza alcun controllo da parte dell’istituzione.

Un’acquisto problematico: Claude

Il Parlamento ha acquistato Claude, un sistema che ha dimostrato di non essere in grado di fornire informazioni accurate, come chi è stato il primo presidente della Commissione Europea. Nel mese di ottobre 2024, l’ente ha scelto questo modello per il suo archivio, nonostante le preoccupazioni riguardanti la sua affidabilità.

Fede cieca nell’IA costituzionale di Anthropic

Il modello di IA di Anthropic, Claude, si basa su un approccio definito IA Costituzionale. Questo approccio utilizza principi selezionati da Anthropic, i quali si definiscono “utili, onesti e innocui”. Tuttavia, non è stata condotta alcuna valutazione indipendente per stabilire se questi criteri siano significativi o se il prodotto di Anthropic corrisponda alle sue affermazioni. Nonostante ciò, l’Unità Archivio del Parlamento tratta le affermazioni di Anthropic come verità sacrosanta.

I membri del Parlamento sono stati in prima linea nella proposta di regole nell’AI Act per affrontare i danni provenienti dai sistemi di IA generativa, come Claude. Tuttavia, invece di seguire le normative stabilite, l’Unità Archivio ha deciso di scommettere sulle affermazioni di Anthropic, come dimostrano i documenti esaminati.

Generatori di “bullshit” per l’accesso agli archivi

Il trattamento illecito dei dati personali non è l’unico problema con i modelli linguistici di grandi dimensioni (LLM). Questi sistemi tendono a memorizzare i dati di addestramento e a ripetere informazioni. Sono sistemi probabilistici che generano “bullshit”, il che significa che non dovrebbero essere utilizzati quando l’accuratezza delle informazioni è fondamentale.

Tuttavia, il Parlamento non ha valutato alternative non LLM. Ha “testato” solo due modelli LLM: Claude di Anthropic e Titan di Amazon. Inoltre, il Parlamento sembra essere intrappolato nell’ecosistema cloud di Amazon, affidandosi all’infrastruttura e al mercato di modelli di IA di Amazon.

La mancanza di valutazione del Parlamento

Prima di lanciare l’archivio “Chiedi agli Archivi EP”, il Parlamento avrebbe dovuto eseguire una serie di valutazioni. Sorprendentemente, non ha effettuato una valutazione del sistema per l’uso da parte del pubblico generale. La mancanza di una valutazione del rischio, dell’impatto sulla protezione dei dati o di una valutazione ambientale adeguata è allarmante. Inoltre, il Parlamento dipende dalla sicurezza tramite redazione.

Chi ha il controllo?

Nonostante il fallimento nel valutare lo strumento prima della distribuzione, Anthropic ha elencato il Parlamento come uno dei suoi clienti. Tuttavia, non esistono contratti diretti tra il Parlamento e Anthropic. Il Parlamento utilizza i servizi attraverso la Commissione Europea, che ha un contratto con Amazon AWS, ma non con Anthropic.

Il capo dell’Unità Archivio del Parlamento ha affermato che, se utilizziamo l’IA generativa, dobbiamo essere sempre sotto il controllo della soluzione che abbiamo costruito. Tuttavia, il Parlamento non ha il controllo reale; dipende dall’infrastruttura di Amazon.

Conclusione

Il caso del Parlamento Europeo evidenzia le sfide e le insidie nell’adozione di tecnologie di IA generativa. La mancanza di valutazioni adeguate prima dell’implementazione e la dipendenza da fornitori esterni sollevano interrogativi critici sulla responsabilità e sull’affidabilità di tali sistemi.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...