Regolamentazioni UE e Rischi degli Incidenti Multi-Agente nell’IA

Le Normative UE Non Sono Pronte per Incidenti di AI Multi-Agente

Nel mese di agosto di quest’anno, le linee guida della Commissione Europea per l’Articolo 73 del Regolamento sull’AI dell’UE entreranno in vigore. Queste linee guida obbligano i fornitori e i deployer a segnalare incidenti gravi legati ai sistemi di AI in ambienti ad alto rischio, come le infrastrutture critiche.

Questo rilascio è tempestivo. Durante il forum di riferimento tenutosi ad Atene, Londra, lo scorso dicembre, è stato avvertito che “questo potrebbe essere uno degli ultimi anni in cui possiamo ancora prevenire un disastro legato all’AI,” come definito dall’OCSE. La scala e la crescita degli incidenti che stiamo osservando sono già preoccupanti.

La Regolamentazione è Adeguata?

Le normative in fase di sviluppo sono adatte allo scopo? Le linee guida presentano una preoccupante lacuna da affrontare. Si concentrano su fallimenti singoli e su un modello di causalità semplificato per gli incidenti legati all’AI. Tuttavia, alcuni dei rischi più gravi emergono dalle interazioni tra sistemi di AI, dove più eventi possono portare a effetti a cascata e cumulativi.

Un quadro di segnalazione degli incidenti che garantisca responsabilità per questi nuovi rischi deve far parte dell’attuazione dell’AI Act dell’UE.

Incidenti Multi-Agente

La formulazione attuale delle linee guida dell’Articolo 73 presume che solo un sistema contribuirà a un incidente ad alto rischio. Tuttavia, i sistemi di AI stanno diventando sempre più agentici, capaci di ragionamento complesso e azioni proattive senza intervento umano continuo. Una volta implementati, è probabile che interagiscano con altri agenti di AI, portando a dipendenze complesse.

Un esempio è l’aumento dei prezzi nel mercato del carburante in Germania, dove gli algoritmi di prezzo hanno iniziato a reagire tra loro senza alcuna coordinazione esplicita, dimostrando una lacuna di responsabilità nelle normative attuali.

Incidenti Cumulativi

Incidenti legati all’AI possono sorgere da interazioni rapide tra sistemi, come dimostrato dal “Flash Crash” del 2010, quando i prezzi di mercato crollarono rapidamente. Gli effetti di tali interazioni possono innescare conseguenze a cascata attraverso le reti, amplificando l’impatto di ogni output.

Inoltre, attacchi informatici condotti utilizzando agenti di AI hanno mostrato come i danni possano derivare da compiti multipli anziché da un singolo evento, non rientrando così nelle attuali linee guida dell’Articolo 73.

Minacce ai Nostri Interessi Collettivi

Le lacune nelle linee guida attuali creano ambiguità legale nella responsabilità e espongono i danni che si estendono oltre gli utenti individuali. Gli assicuratori stanno già proteggendo se stessi escludendo la copertura per le responsabilità legate ai sistemi di AI causati da rischi sistemici.

Con l’uso crescente dei sistemi di AI da parte dei governi, gli errori possono influenzare intere popolazioni piuttosto che singoli individui. È fondamentale riconoscere come le interazioni multi-agente possano minacciare la nostra capacità di prendere decisioni informate.

La Necessità di Segnalazione di Terze Parti

Data la natura ad alto rischio e diffusa di questi incidenti multi-agente, l’importanza di meccanismi di segnalazione riservati è indiscutibile. Le linee guida non forniscono attualmente percorsi strutturati per la segnalazione da parte di terzi e whistleblower.

Chiusura del Gap

Le linee guida dell’Articolo 73 evidenziano una grave mancanza di preparazione nella regolamentazione dei sistemi di AI agentici. È tempo che la Commissione Europea allarghi la sua comprensione e risposta agli incidenti legati all’AI, iniziando con una definizione più realistica del danno.

Incidenti segnalabili non dovrebbero essere limitati a fallimenti isolati, ma dovrebbero includere rotture che emergono quando i sistemi di AI interagiscono tra loro in modi imprevedibili e composti.

Riconoscere queste forme di danno è essenziale per proteggere i nostri interessi collettivi e la fiducia pubblica.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...