Intelligenza Artificiale e Dati
Il prossimo anno metterà alla prova la capacità delle aziende nei servizi finanziari di bilanciare le ambizioni con solidi controlli nell’uso dell’Intelligenza Artificiale (IA). Un recente sondaggio mostra che l’appetito per l’IA rimane forte: il 94% delle aziende prevede di aumentare gli investimenti nei prossimi 12 mesi, con il 39% che si aspetta un aumento significativo.
Le direzioni aziendali vedono giustamente l’IA come una forza potente per la trasformazione. Tuttavia, il passaggio dalla sperimentazione all’implementazione su larga scala degli utilizzi dell’IA, in particolare in un contesto normativo orientato ai risultati, rimane una sfida. Stabilire una governance efficace dell’IA e rimanere all’interno dell’appetito al rischio, specialmente per sistemi complessi come l’IA generativa, è un ostacolo particolare. Quasi un terzo dei rispondenti cita la gestione dei rischi dell’IA (29%) e il rispetto degli obblighi normativi (28%) come i principali ostacoli per realizzare i ritorni attesi.
Regolamentazione dell’IA: dove siamo?
L’ambiente normativo internazionale per l’IA rimane un mix di quadri ben consolidati e in evoluzione. Gli standard industriali internazionali, distinti dalla regolamentazione, giocano anche un ruolo chiave nel guidare le buone pratiche nella governance e nella gestione del rischio. In merito alle norme specifiche per l’IA, il Regno Unito e l’UE stanno seguendo percorsi diversi. Il Regno Unito non ha una legislazione dedicata all’IA per i servizi finanziari e non ne è prevista una. Nell’UE, l’attuazione dell’Atto sull’IA è in fase di flusso, con proposte in fase di negoziazione per ritardare le scadenze di conformità per i sistemi di IA ad alto rischio.
Governance dell’IA, responsabilità e risultati
Una governance e responsabilità efficace dell’IA determineranno il ritmo e la scala dell’adozione dell’IA nei servizi finanziari. Le autorità di vigilanza nel Regno Unito e nell’UE concordano su un punto: l’IA è uno strumento tecnologico e le aziende rimangono responsabili del suo utilizzo sicuro e conforme agli obblighi normativi. Le aziende devono dimostrare che la loro governance dell’IA e i controlli assicurino che i decisori comprendano i rischi dei loro modelli e possano giustificare e gestire l’incertezza nei loro risultati.
Con l’integrazione dell’IA nelle attività principali, l’attenzione della vigilanza sulla responsabilità e il controllo efficace aumenterà. Le aziende dovranno stabilire un chiaro appetito al rischio per l’IA, definendo i confini sul suo utilizzo e i livelli accettabili di autonomia.
Qualità dei Dati e Governance
La governance dei dati è fondamentale per il dispiegamento efficace dell’IA. Dati di alta qualità e ben gestiti sostengono la trasparenza, la validazione dei modelli e la spiegabilità. Tuttavia, per molte aziende, la governance dei dati rimane una sfida persistente. I sistemi legacy e le architetture frammentate hanno reso i dati inconsistenti e di bassa qualità, rendendo più difficile addestrare e testare i modelli di IA.
Resilienza Operativa e Rischio dei Fornitori
La resilienza operativa è ora centrale nella supervisione dell’IA, dato che il settore dei servizi finanziari fa affidamento su un numero ristretto di fornitori tecnologici per la sua infrastruttura IA. L’intensificazione della supervisione riguarderà sia il livello aziendale che i fornitori critici. Le aziende devono dimostrare piani di continuità credibili e la capacità di gestire i rischi derivanti da una catena di fornitura concentrata.
Conclusione
Scalare l’IA in modo sicuro, in linea con l’appetito al rischio e le aspettative normative, richiede l’implementazione di alcune capacità fondamentali. Una governance robusta dell’IA, con chiara responsabilità a livello dirigenziale, è essenziale. Insieme, queste pratiche sosterranno qualsiasi strategia efficace per l’IA.