Stakeholders suggeriscono di evitare strutture duplicate specifiche per l’IA
Durante la redazione di un documento di discussione riguardante l’uso responsabile dell’intelligenza artificiale nel settore dei servizi finanziari, è emerso che i rischi legati all’intelligenza artificiale sono già ampiamente affrontati attraverso i quadri normativi esistenti. I partecipanti hanno incoraggiato l’autorità a integrare le considerazioni legate all’IA all’interno dei quadri di gestione del rischio aziendale già stabiliti, piuttosto che creare strutture specifiche duplicate per l’IA.
Approccio proposto e benefici dell’IA
I rispondenti hanno espresso un ampio supporto per l’approccio basato sui risultati e guidato dai principi proposto dall’autorità. È stato generalmente concordato che l’IA potrebbe fornire benefici significativi se utilizzata in modo responsabile, tra cui miglioramenti nell’efficienza, nella gestione del rischio, nella conformità e nell’integrità del mercato.
Molti stakeholders hanno avvertito contro requisiti eccessivamente prescrittivi o specifici per la tecnologia, sottolineando il rapido cambiamento tecnologico e il rischio che regole rigide diventino rapidamente obsolete. L’autorità ha confermato l’intenzione di mantenere un approccio di supervisione neutro rispetto alla tecnologia.
Governance dell’IA e considerazioni sui rischi
Alcuni partecipanti hanno suggerito che la proporzionalità dovrebbe riconoscere più esplicitamente i benefici attesi o i vantaggi competitivi dell’adozione dell’IA. Altri hanno enfatizzato che la governance dell’IA deve estendersi oltre le tradizionali considerazioni di rischio operativo, date le potenziali trasformazioni che l’IA può apportare ai modelli di business.
L’autorità ha osservato che i consigli di amministrazione e i dirigenti senior considerano i benefici strategici quando decidono se perseguire soluzioni abilitanti l’IA, notando che l’IA può amplificare o accelerare i driver di rischio esistenti in diverse categorie, quali operativo, condotta, dati, cyber e strategico.
Rischi associati all’uso dell’IA
È stata sottolineata l’importanza della governance responsabile dell’IA, ancorata ai rischi e all’impatto piuttosto che al potenziale commerciale. I partecipanti hanno anche notato l’uso crescente dell’IA in ambiti come investimenti, trading e sorveglianza del mercato, e le potenziali implicazioni per l’integrità di mercato e la stabilità finanziaria.
I feedback hanno evidenziato rischi associati a comportamenti correlati o di gregge, dinamiche di mercato accelerate sotto stress, e la possibilità di manipolazione del mercato abilitata dall’IA.
Conclusione e prossimi passi
La discussione ha messo in evidenza la necessità di allineamento normativo internazionale, specialmente per le aziende che operano sotto quadri di governance dell’IA a livello di gruppo. L’autorità ha pianificato di continuare il dialogo con i partecipanti e monitorare gli sviluppi internazionali per garantire che i quadri normativi restino adeguati e che l’adozione delle pratiche di governance dell’IA sia efficace e proporzionata.
Obiettivo dell’autorità è supportare l’innovazione responsabile, assicurando che eventuali miglioramenti alle aspettative di supervisione siano pratici, basati sui rischi e privi di duplicazioni o oneri normativi indesiderati.