Le Normative UE Non Sono Pronte per Incidenti di AI Multi-Agente
Nel mese di agosto di quest’anno, le linee guida della Commissione Europea per l’Articolo 73 del Regolamento sull’AI dell’UE entreranno in vigore. Queste linee guida obbligano i fornitori e i deployer a segnalare incidenti gravi legati ai sistemi di AI in ambienti ad alto rischio, come le infrastrutture critiche.
Questo rilascio è tempestivo. Durante il forum di riferimento tenutosi ad Atene, Londra, lo scorso dicembre, è stato avvertito che “questo potrebbe essere uno degli ultimi anni in cui possiamo ancora prevenire un disastro legato all’AI,” come definito dall’OCSE. La scala e la crescita degli incidenti che stiamo osservando sono già preoccupanti.
La Regolamentazione è Adeguata?
Le normative in fase di sviluppo sono adatte allo scopo? Le linee guida presentano una preoccupante lacuna da affrontare. Si concentrano su fallimenti singoli e su un modello di causalità semplificato per gli incidenti legati all’AI. Tuttavia, alcuni dei rischi più gravi emergono dalle interazioni tra sistemi di AI, dove più eventi possono portare a effetti a cascata e cumulativi.
Un quadro di segnalazione degli incidenti che garantisca responsabilità per questi nuovi rischi deve far parte dell’attuazione dell’AI Act dell’UE.
Incidenti Multi-Agente
La formulazione attuale delle linee guida dell’Articolo 73 presume che solo un sistema contribuirà a un incidente ad alto rischio. Tuttavia, i sistemi di AI stanno diventando sempre più agentici, capaci di ragionamento complesso e azioni proattive senza intervento umano continuo. Una volta implementati, è probabile che interagiscano con altri agenti di AI, portando a dipendenze complesse.
Un esempio è l’aumento dei prezzi nel mercato del carburante in Germania, dove gli algoritmi di prezzo hanno iniziato a reagire tra loro senza alcuna coordinazione esplicita, dimostrando una lacuna di responsabilità nelle normative attuali.
Incidenti Cumulativi
Incidenti legati all’AI possono sorgere da interazioni rapide tra sistemi, come dimostrato dal “Flash Crash” del 2010, quando i prezzi di mercato crollarono rapidamente. Gli effetti di tali interazioni possono innescare conseguenze a cascata attraverso le reti, amplificando l’impatto di ogni output.
Inoltre, attacchi informatici condotti utilizzando agenti di AI hanno mostrato come i danni possano derivare da compiti multipli anziché da un singolo evento, non rientrando così nelle attuali linee guida dell’Articolo 73.
Minacce ai Nostri Interessi Collettivi
Le lacune nelle linee guida attuali creano ambiguità legale nella responsabilità e espongono i danni che si estendono oltre gli utenti individuali. Gli assicuratori stanno già proteggendo se stessi escludendo la copertura per le responsabilità legate ai sistemi di AI causati da rischi sistemici.
Con l’uso crescente dei sistemi di AI da parte dei governi, gli errori possono influenzare intere popolazioni piuttosto che singoli individui. È fondamentale riconoscere come le interazioni multi-agente possano minacciare la nostra capacità di prendere decisioni informate.
La Necessità di Segnalazione di Terze Parti
Data la natura ad alto rischio e diffusa di questi incidenti multi-agente, l’importanza di meccanismi di segnalazione riservati è indiscutibile. Le linee guida non forniscono attualmente percorsi strutturati per la segnalazione da parte di terzi e whistleblower.
Chiusura del Gap
Le linee guida dell’Articolo 73 evidenziano una grave mancanza di preparazione nella regolamentazione dei sistemi di AI agentici. È tempo che la Commissione Europea allarghi la sua comprensione e risposta agli incidenti legati all’AI, iniziando con una definizione più realistica del danno.
Incidenti segnalabili non dovrebbero essere limitati a fallimenti isolati, ma dovrebbero includere rotture che emergono quando i sistemi di AI interagiscono tra loro in modi imprevedibili e composti.
Riconoscere queste forme di danno è essenziale per proteggere i nostri interessi collettivi e la fiducia pubblica.