AI e il Parlamento Europeo: un errore da non ripetere

Come non distribuire l’IA generativa: la storia del Parlamento Europeo

Il Parlamento Europeo ha recentemente preso una decisione controversa scegliendo un modello di intelligenza artificiale per gestire un nuovo archivio storico. Questo modello, fornito da Anthropic, è stato presentato come un’alternativa più affidabile rispetto a sistemi noti come Meta, Google e Open AI. Tuttavia, un’analisi approfondita ha rivelato che il Parlamento sta utilizzando una tecnologia di IA inaffidabile che produce risultati errati, senza alcun controllo da parte dell’istituzione.

Un’acquisto problematico: Claude

Il Parlamento ha acquistato Claude, un sistema che ha dimostrato di non essere in grado di fornire informazioni accurate, come chi è stato il primo presidente della Commissione Europea. Nel mese di ottobre 2024, l’ente ha scelto questo modello per il suo archivio, nonostante le preoccupazioni riguardanti la sua affidabilità.

Fede cieca nell’IA costituzionale di Anthropic

Il modello di IA di Anthropic, Claude, si basa su un approccio definito IA Costituzionale. Questo approccio utilizza principi selezionati da Anthropic, i quali si definiscono “utili, onesti e innocui”. Tuttavia, non è stata condotta alcuna valutazione indipendente per stabilire se questi criteri siano significativi o se il prodotto di Anthropic corrisponda alle sue affermazioni. Nonostante ciò, l’Unità Archivio del Parlamento tratta le affermazioni di Anthropic come verità sacrosanta.

I membri del Parlamento sono stati in prima linea nella proposta di regole nell’AI Act per affrontare i danni provenienti dai sistemi di IA generativa, come Claude. Tuttavia, invece di seguire le normative stabilite, l’Unità Archivio ha deciso di scommettere sulle affermazioni di Anthropic, come dimostrano i documenti esaminati.

Generatori di “bullshit” per l’accesso agli archivi

Il trattamento illecito dei dati personali non è l’unico problema con i modelli linguistici di grandi dimensioni (LLM). Questi sistemi tendono a memorizzare i dati di addestramento e a ripetere informazioni. Sono sistemi probabilistici che generano “bullshit”, il che significa che non dovrebbero essere utilizzati quando l’accuratezza delle informazioni è fondamentale.

Tuttavia, il Parlamento non ha valutato alternative non LLM. Ha “testato” solo due modelli LLM: Claude di Anthropic e Titan di Amazon. Inoltre, il Parlamento sembra essere intrappolato nell’ecosistema cloud di Amazon, affidandosi all’infrastruttura e al mercato di modelli di IA di Amazon.

La mancanza di valutazione del Parlamento

Prima di lanciare l’archivio “Chiedi agli Archivi EP”, il Parlamento avrebbe dovuto eseguire una serie di valutazioni. Sorprendentemente, non ha effettuato una valutazione del sistema per l’uso da parte del pubblico generale. La mancanza di una valutazione del rischio, dell’impatto sulla protezione dei dati o di una valutazione ambientale adeguata è allarmante. Inoltre, il Parlamento dipende dalla sicurezza tramite redazione.

Chi ha il controllo?

Nonostante il fallimento nel valutare lo strumento prima della distribuzione, Anthropic ha elencato il Parlamento come uno dei suoi clienti. Tuttavia, non esistono contratti diretti tra il Parlamento e Anthropic. Il Parlamento utilizza i servizi attraverso la Commissione Europea, che ha un contratto con Amazon AWS, ma non con Anthropic.

Il capo dell’Unità Archivio del Parlamento ha affermato che, se utilizziamo l’IA generativa, dobbiamo essere sempre sotto il controllo della soluzione che abbiamo costruito. Tuttavia, il Parlamento non ha il controllo reale; dipende dall’infrastruttura di Amazon.

Conclusione

Il caso del Parlamento Europeo evidenzia le sfide e le insidie nell’adozione di tecnologie di IA generativa. La mancanza di valutazioni adeguate prima dell’implementazione e la dipendenza da fornitori esterni sollevano interrogativi critici sulla responsabilità e sull’affidabilità di tali sistemi.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...