Commento: Rompere il “black box” – affrontare l’agenda di governance per un’IA responsabile
L’intelligenza artificiale sta diventando rapidamente una parte essenziale delle nostre vite quotidiane, spesso in modi sorprendenti. Dalla rete stradale su cui guidiamo e dalla sanità che riceviamo, alle notizie che leggiamo e al cibo che ordiniamo, l’IA sta trasformando il mondo in cui viviamo.
Perché la governance dell’IA deve essere una priorità a livello di consiglio
Se da un lato l’IA offre efficienza e innovazione, dall’altro introduce sistemi che mancano di trasparenza, con una logica decisionale difficile da individuare. Questi modelli di IA definiti “black box” – in cui persino lo sviluppatore del modello non è in grado di determinare come vengono prese le decisioni – sollevano seri rischi legati a pregiudizi, disinformazione, privacy e integrità operativa. Le aziende potrebbero correre il rischio di esposizione legale, danni reputazionali e perdita di fiducia da parte degli stakeholder.
Nonostante la scala di adozione, meno del 20% delle aziende pubbliche ha divulgato dettagli sulle proprie strategie di mitigazione dei rischi legati all’IA, e solo il 10% ha riportato valutazioni su equità o pregiudizi. Questa mancanza di trasparenza rappresenta un vuoto informativo sia per gli investitori che per i regolatori.
Un quadro per l’azione degli investitori
Il report analizza le opportunità – e le responsabilità – per gli investitori nel contribuire a definire gli standard di governance necessari per gestire i rischi emergenti dell’IA. È nell’interesse di tutti garantire che l’IA venga sviluppata e implementata in un modo che supporti non solo l’innovazione, ma anche l’inclusione, la stabilità e la prosperità condivisa.
Per affrontare questo problema, i consigli di amministrazione devono considerare l’IA come una questione di governance trasversale – molto simile alla cyber-sicurezza o ai rischi climatici – che richiede un adeguato monitoraggio e processi chiari di mitigazione dei rischi.
Il report sottolinea che solo il 15% delle aziende S&P 500 ha divulgato una qualche forma di supervisione del consiglio sull’IA nelle proprie dichiarazioni proxy – e ancor meno, solo l’1,6%, ha fornito una divulgazione esplicita della responsabilità a livello di consiglio o comitato.
IA responsabile – un crocevia critico per la leadership degli investitori
I fondi pensione, con orizzonti di investimento a lungo termine e influenza sistemica, sono unici nel loro ruolo di guidare standard di governance più robusti attraverso l’economia. I fondi pensione sono responsabili non solo delle performance odierne, ma anche della sostenibilità e della resilienza dei futuri interessi delle persone.
Incoraggiando una governance e una divulgazione migliori, i fondi pensione possono orientare con attenzione l’adozione diffusa dell’IA e contribuire a comportamenti aziendali più trasparenti, equi e adatti al futuro. Ciò non significa limitare l’innovazione, ma garantire che sia guidata in modo tale da allinearsi con le aspettative sociali e gli standard legali, e sostenere la stabilità economica a lungo termine, l’inclusione e la responsabilità.