I fallimenti nella governance dell’IA stanno diventando un rischio di responsabilità per i direttori e gli amministratori
La governance dell’IA non è più una questione teorica da discutere in consiglio. Con il passaggio dei regolatori da orientamenti a misure di enforcement, una debole supervisione dell’intelligenza artificiale sta rapidamente diventando un rischio di responsabilità per i direttori e gli amministratori, con implicazioni per la valutazione, la divulgazione e la fiducia degli investitori.
Il cambiamento nella governance
Questo cambiamento è sottolineato da recenti azioni normative contro una piattaforma di chatbot IA. Le autorità hanno effettuato perquisizioni negli uffici collegati alla piattaforma, mentre i regolatori hanno aperto nuove indagini sull’uso dei dati e sui controlli dei contenuti. Anche se le indagini si concentrano sulla tecnologia e sulla conformità, l’esposizione che creano sta sempre più arrivando a livello di consiglio.
La governance dell’IA dovrebbe essere vista chiaramente attraverso una lente di responsabilità per i direttori e gli amministratori. Questo rischio può sorgere sia dall’azione che dall’inazione. Anche se i direttori pensano di svolgere un ottimo lavoro o ignorano completamente l’IA, la perdita di vantaggio competitivo e la svalutazione dell’azienda rimangono un pericolo.
Valore intangibile e valutazioni fragili
La sfida della governance è amplificata dal fatto che le valutazioni delle aziende moderne dipendono fortemente da attivi intangibili, in particolare dati, proprietà intellettuale e reputazione. La composizione dell’indice S&P 500 è cambiata, con circa il 90% del valore degli attivi stimato come intangibile.
Se si verifica un problema reputazionale o un difetto nella ricerca, quel valore può essere annullato in un colpo solo. L’episodio che ha coinvolto un’acquisizione ha dimostrato come i fallimenti nella governance possano tradursi rapidamente in rischi finanziari e legali.
Intensità degli investimenti e pressione sulla governance
La scala degli investimenti nell’IA sta creando esposizione per i direttori. Le principali aziende stanno spingendo sull’IA, e gran parte di questo investimento passa attraverso fornitori dominanti. I consigli di amministrazione sono quindi esposti non solo a come l’IA è governata operativamente, ma anche a come il capitale è allocato e giustificato agli investitori.
Rischio di AI-washing e il crollo di una piattaforma
Il rischio di responsabilità diventa più acuto quando le aziende esagerano le proprie capacità di IA per aumentare le valutazioni. Un esempio di questo è il crollo di una piattaforma che si presentava come guidata dall’IA. La società ha raccolto ingenti somme di capitale di rischio, raggiungendo una valutazione elevata prima di diventare insolvente.
La valutazione si basava sulle capacità di IA, ma si è scoperto che queste non esistevano realmente. Le richieste dei clienti venivano indirizzate a sviluppatori umani, limitando la scalabilità e compromettendo il modello di business.
Regolamentazione frammentata e pressione aggiuntiva
La frammentazione della regolamentazione globale sta aggravando il rischio per i direttori. Le modalità di regolamentazione e monitoraggio dell’IA variano tra giurisdizioni, rendendo cruciale per le aziende gestire e comunicare la conformità.
Aumento della cautela nella sottoscrizione
Nonostante il rischio dell’IA venga ampiamente discusso, non è ancora completamente assorbito dalla sottoscrizione assicurativa. La cautela sta aumentando, in particolare per le aziende in fase iniziale e i fondi che si posizionano come focalizzati sull’IA.
In conclusione, la governance dell’IA non è più un rischio futuro da monitorare, ma un’esposizione attuale in consiglio con un reale potenziale di reclami.