Le aziende e la governance dell’IA responsabile: un legame con i risultati aziendali
Un recente sondaggio ha rivelato che le aziende che implementano misure avanzate di governance dell’IA responsabile (RAI) ottengono risultati aziendali superiori. Le aziende dotate di monitoraggio in tempo reale e comitati di supervisione segnalano guadagni misurabili in termini di entrate, soddisfazione dei dipendenti e risparmi sui costi.
Quasi tutte le organizzazioni intervistate hanno riportato perdite finanziarie e impatti diffusi a causa di fallimenti di conformità, retrocessi in sostenibilità e output distorti. Le lacune nella governance e nella preparazione della forza lavoro evidenziano le sfide nel gestire l’adozione dell’IA guidata dai dipendenti.
Risultati principali del sondaggio
Il sondaggio ha mostrato che le aziende più avanzate nella governance dell’IA stanno raccogliendo i frutti di tali investimenti. Circa il 81% dei partecipanti ha dichiarato di aver migliorato l’innovazione, mentre il 79%crescita delle entrate (54%), risparmi sui costi (48%) e soddisfazione dei dipendenti (56%).
La transizione verso una governance efficace dell’IA responsabile è iniziata con la definizione e comunicazione dei principi, proseguendo con l’implementazione di misure RAI che integrano tali impegni nelle operazioni aziendali. In media, le organizzazioni hanno già implementato sette delle dieci misure RAI, e la maggior parte di quelle che non hanno ancora agito pianifica di farlo, evidenziando un ampio coinvolgimento e una forte intenzione di progresso.
Impatto delle lacune nella governance
Quasi tutte le organizzazioni (il 99%) hanno segnalato perdite finanziarie a causa di rischi legati all’IA, con quasi due terzi che hanno subito perdite superiori a 1 milione di dollari. Il danno finanziario medio per le aziende che hanno affrontato tali rischi è stimato in 4,4 milioni di dollari.
I rischi più comuni associati all’IA includono la non conformità alle normative sull’IA (57%), impatti negativi sugli obiettivi di sostenibilità (55%) e output distorti (53%).
Gap di conoscenza nel C-suite
In media, solo il 12% dei dirigenti del C-suite è stato in grado di identificare correttamente i controlli appropriati contro cinque rischi legati all’IA, con i direttori del rischio che hanno ottenuto un punteggio leggermente inferiore (11%). Con l’avvento dell’IA agentica, i rischi sono destinati a crescere e la necessità di controlli appropriati diventa sempre più urgente.
Governance e preparazione dei talenti
Le aziende affrontano una sfida crescente nella gestione dei citizen developer, ovvero i dipendenti che sviluppano o implementano autonomamente agenti IA. Due terzi delle aziende intervistate consentono questa attività, ma solo il 60% di esse fornisce politiche e quadri formali per garantire che gli agenti siano distribuiti in conformità con i principi di IA responsabile. Inoltre, la metà delle aziende non ha un alto livello di visibilità sull’uso degli agenti IA da parte dei dipendenti.
Le aziende che incoraggiano attivamente lo sviluppo da parte dei citizen developer sono più propense a segnalare la necessità di modelli di talenti per evolversi in preparazione a una forza lavoro ibrida umana-IA. Queste aziende citano la scarsità di talenti futuri come la loro principale preoccupazione riguardo ai modelli di IA più recenti (31%, rispetto al 21% delle altre aziende).
In conclusione, le aziende che vedono la governance dell’IA non solo come un esercizio di conformità, ma come un driver di fiducia, innovazione e differenziazione di mercato, sono meglio posizionate per ottenere guadagni di produttività più rapidi e sostenere il vantaggio competitivo in un’economia guidata dall’IA.