Introduzione
Un ente di vigilanza finanziaria ha segnalato che le pratiche di governance e di assicurazione degli agenti di intelligenza artificiale (IA) sono carenti, soprattutto nelle istituzioni che stanno ampliando l’uso dell’IA sia internamente sia verso i clienti.
Analisi principale
Stato attuale dell’adozione
Una revisione mirata ha mostrato che l’IA è presente in tutte le entità esaminate, ma il livello di maturità nella gestione dei rischi varia notevolmente. I consigli di amministrazione mostrano interesse per i benefici in termini di produttività ed esperienza cliente, ma molti stanno ancora costruendo le proprie capacità di gestione dei rischi.
Principali preoccupazioni
Le principali criticità individuate includono:
Affidamento a presentazioni dei fornitori senza adeguata verifica, comportamento imprevedibile dei modelli e l’impatto di eventuali fallimenti dell’IA sulle operazioni critiche.
Ambiti di utilizzo
L’IA è sperimentata o implementata in diversi settori, tra cui ingegneria del software, valutazione delle richieste di indennizzo, processi di concessione di crediti, rilevamento di frodi e interazione con i clienti.
Implicazioni e rischi
Governance e controlli
È stata evidenziata la necessità di:
- Inventari chiari degli strumenti di IA e responsabilità designate per ciascuna istanza;
- Procedure di monitoraggio del comportamento dei modelli, gestione delle modifiche e dismissione dei sistemi IA;
- Coinvolgimento umano nelle decisioni ad alto rischio.
Sicurezza informatica
L’adozione dell’IA sta creando nuove vie di attacco, come l’iniezione di prompt e integrazioni non sicure. Le pratiche di gestione delle identità e degli accessi non sempre sono state aggiornate per considerare identità non umane.
Dipendenza da fornitori
Alcune istituzioni dipendono da un unico fornitore per molte soluzioni IA e spesso mancano di piani di uscita o strategie di sostituzione.
Conclusione
Per ridurre i rischi, le entità devono sviluppare una governance più solida dell’IA, includendo controlli di accesso, monitoraggio continuo e piani di continuità. Solo così l’IA potrà essere sfruttata in modo sicuro e responsabile, allineando la strategia tecnologica alla tolleranza al rischio dell’organizzazione.