Crescita dell’IA e sfide nella governance

Indagine sull’Intelligenza Artificiale: Crescita dell’adozione, ma rimangono lacune nella governance

Un’indagine condotta nella prima metà del 2025 ha raccolto risposte da 80 professionisti provenienti da vari settori, con la maggior parte proveniente dai servizi finanziari e dal settore ICT. I partecipanti includevano leader tecnologici, consulenti legali, professionisti del rischio e della compliance, e dirigenti di alto livello.

Crescita dell’adozione dell’IA, ma la maturità varia

Il sondaggio mostra che quasi tutte le organizzazioni si stanno impegnando con l’IA in qualche forma, con il 10% che afferma che l’IA è fondamentale per le proprie operazioni. Tuttavia, molte sono ancora nelle fasi iniziali di adozione, con il 21% che fornisce accesso ai dipendenti agli strumenti di generazione di IA e il 33% che sta sviluppando o testando prove di concetto.

“L’IA è chiaramente all’ordine del giorno per la maggior parte delle organizzazioni, ma il passaggio dalla sperimentazione all’integrazione è ancora in corso”, ha affermato un esperto del settore. “La sfida ora è passare da casi d’uso isolati a strategie aziendali complete che siano legalmente solide e eticamente fondate.”

Lacune nella governance e incertezze nei ruoli

Nonostante la crescente adozione, il 38% delle organizzazioni non ha ancora assegnato la responsabilità per l’implementazione dell’IA a un individuo specifico. Dove la responsabilità è stata assegnata, non c’è consenso chiaro su dove dovrebbe essere collocata: i ruoli variano da CTO e Responsabili dei Dati a Consiglieri Generali e COO.

“Con la maturazione delle strategie di IA, stiamo assistendo a una crescente necessità di chiara proprietà”, ha dichiarato un responsabile di governance. “Stabilire strutture di responsabilità definite aiuterà le organizzazioni a gestire efficacemente il rischio e a soddisfare le aspettative normative in evoluzione.”

Legge sull’IA dell’UE: Aumento della consapevolezza, ma impatto potenzialmente sottovalutato

Il 61% dei rispondenti si identifica come Deployers ai sensi della Legge sull’IA dell’UE e un ulteriore 14% come Providers, mentre il 25% è ancora incerto sulla propria classificazione—una distinzione importante date le diverse obbligazioni di compliance. Solo il 14% crede che la Legge avrà un impatto elevato sulla propria organizzazione, nonostante il 28% stia sviluppando strumenti di IA internamente e il 40% stia collaborando con terzi per creare soluzioni personalizzate.

“Una classificazione errata ai sensi della Legge sull’IA dell’UE potrebbe portare a gravi lacune di compliance”, ha avvertito un esperto di tecnologia e innovazione. “Le organizzazioni devono comprendere il proprio ruolo nell’ecosistema dell’IA e prepararsi di conseguenza.”

“Stiamo anche assistendo a un cambiamento nel modo in cui l’IA viene vista—non solo come una questione tecnologica, ma come una priorità strategica per il business”, ha aggiunto un partner di tecnologia e innovazione. “Questo cambiamento sta guidando una maggiore collaborazione trasversale, in particolare tra i team legali, di compliance e tecnologici.”

Quadri di governance ancora in fase di sviluppo

Nonostante il 53% delle organizzazioni abbia una politica sull’uso dell’IA e un comitato tecnologico in atto, altri elementi di governance sono meno maturi:

  • Solo il 20% ha una politica di rischio approvata per l’IA
  • Solo il 20% ha una politica di approvvigionamento per l’IA
  • Solo il 25% ha approvato un programma di formazione sulla competenza dell’IA per dipendenti e membri del consiglio

“Lo sviluppo disuguale dei quadri di governance evidenzia la necessità di un approccio più coordinato”, ha affermato un partner di tecnologia e innovazione. “La competenza in materia di IA, in particolare, sta diventando non solo una prassi consigliata, ma un obbligo legale.”

Prospettive globali

Nonostante la divergenza normativa a livello globale, il 76% dei rispondenti afferma che le normative dell’UE hanno la precedenza per la propria organizzazione, rafforzando il ruolo dell’UE come leader globale nella governance dell’IA.

More Insights

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...

AI Sovrana: Il Futuro della Produzione Intelligente

Le nuvole AI sovrane offrono sia controllo che conformità, affrontando le crescenti preoccupazioni riguardo alla residenza dei dati e al rischio normativo. Per i fornitori di servizi gestiti, questa è...

Etica dell’IA: Progresso e Inclusività in Scozia

L'Allianza Scozzese per l'IA ha pubblicato il suo Rapporto di Impatto 2024/2025, evidenziando un anno di progressi nella promozione di un'intelligenza artificiale etica e inclusiva in Scozia. Il...

L’Urgenza del Regolamento sull’IA: Preparati al Cambiamento

L'annuncio della Commissione UE venerdì scorso che non ci sarà un ritardo nell'Atto sull'IA dell'UE ha suscitato reazioni contrastanti. È tempo di agire e ottenere alcuni fatti, poiché le scadenze di...

Affidabilità dei Modelli Linguistici nella Prospettiva della Legge AI dell’UE

Lo studio sistematico esamina la fiducia nei grandi modelli linguistici (LLM) alla luce del Regolamento sull'IA dell'UE, evidenziando le preoccupazioni relative all'affidabilità e ai principi di...

La pausa sull’AI Act dell’UE: opportunità o rischio?

Il 8 luglio 2025, la Commissione Europea ha ribadito il proprio impegno per rispettare il calendario dell'AI Act, nonostante le richieste di rinvio da parte di alcune aziende. Il Primo Ministro...

Controlli Trump sull’IA: Rischi e Opportunità nel Settore Tecnologico

L'amministrazione Trump si sta preparando a nuove restrizioni sulle esportazioni di chip AI verso Malesia e Thailandia, al fine di prevenire l'accesso della Cina a processori avanzati. Le nuove...

Governance AI: Fondamenti per un Futuro Etico

La governance dell'intelligenza artificiale e la governance dei dati sono diventate cruciali per garantire lo sviluppo di soluzioni AI affidabili ed etiche. Questi framework di governance sono...

LLMOps: Potenziare l’IA Responsabile con Python

In un panorama ipercompetitivo, non è sufficiente distribuire modelli di linguaggio di grandi dimensioni (LLM); è necessario un robusto framework LLMOps per garantire affidabilità e conformità...