AI: Tra Benefici e Rischi, la Sfida della Fiducia

Uno studio globale rivela conflitti tra benefici e rischi dell’IA e lacune nella governance

Un recente studio globale sulla fiducia nell’Intelligenza Artificiale (IA) ha rivelato che oltre la metà delle persone nel mondo è riluttante a fidarsi dell’IA, riflettendo una tensione sottostante tra i benefici evidenti e i rischi percepiti.

Risultati chiave

La nuova era intelligente è arrivata: il 66% delle persone utilizza regolarmente l’IA e l’83% crede che l’uso dell’IA porterà a una vasta gamma di benefici. Tuttavia, la fiducia, che è centrale per l’accettazione dell’IA, rimane una sfida critica. Solo il 46% delle persone a livello globale è disposto a fidarsi dei sistemi di IA, il che si correla con bassi livelli di alfabetizzazione sull’IA: solo due persone su cinque (il 39%) riportano una qualche forma di formazione sull’IA e solo il 40% afferma che il proprio luogo di lavoro ha una politica o linee guida sull’uso dell’IA generativa.

I dati suggeriscono che quasi la metà delle organizzazioni potrebbe utilizzare l’IA senza un adeguato supporto e governance.

Lo studio, intitolato “Fiducia, atteggiamenti e utilizzo dell’Intelligenza Artificiale: uno studio globale 2025”, è il più completo studio globale sulla fiducia, sull’uso e sugli atteggiamenti del pubblico nei confronti dell’IA. Ha coinvolto oltre 48.000 persone in 47 paesi tra novembre 2024 e gennaio 2025.

Nonostante il 66% delle persone utilizzi già intenzionalmente l’IA con una certa regolarità, meno della metà dei rispondenti globali è disposta a fidarsi di essa (46%).

Fiducia e conoscenza dell’IA

Rispetto a uno studio precedente condotto prima del rilascio di ChatGPT nel 2022, emerge che le persone sono diventate meno fiduciose e più preoccupate per l’IA man mano che l’adozione è aumentata. Gli individui e le organizzazioni tendono a fidarsi di più dei sistemi di IA quando comprendono come funziona l’IA, ma lo studio rileva che solo due persone su cinque (il 39%) riportano una qualche forma di formazione sull’IA. In linea con questi bassi livelli di formazione, quasi la metà (48%) riferisce una conoscenza limitata dell’IA, indicando che non si sentono in grado di comprendere l’IA né quando né come viene utilizzata.

“La fiducia del pubblico nelle tecnologie IA e il loro utilizzo sicuro è centrale per un’accettazione e un’adozione sostenute,” si afferma nel rapporto.

IA nel lavoro e nell’istruzione

La nuova era del lavoro con l’IA è qui, con tre dipendenti su cinque (58%) che utilizzano intenzionalmente l’IA, e un terzo (31%) la utilizza settimanalmente o quotidianamente. Questo alto utilizzo sta portando a una serie di benefici, con la maggior parte dei dipendenti che riportano un aumento dell’efficienza, dell’accesso alle informazioni e dell’innovazione. Quasi la metà di coloro che hanno partecipato al sondaggio ha dichiarato che l’IA ha aumentato l’attività generatrice di entrate.

Tuttavia, solo il 60% delle organizzazioni fornisce formazione responsabile sull’IA e solo il 34% riporta una politica o linee guida organizzative sull’uso degli strumenti di IA generativa.

Si stima che l’uso dell’IA stia creando rischi complessi per le organizzazioni, e sta emergendo un ‘gap di governance‘. Lo studio rivela che quasi la metà dei dipendenti ammette di utilizzare l’IA in modi che violano le politiche aziendali, inclusa l’upload di informazioni aziendali sensibili in strumenti pubblici gratuiti come ChatGPT.

IA nella società

Il 73% delle persone riferisce di aver personalmente sperimentato o osservato benefici dell’IA, tra cui una riduzione del tempo dedicato a compiti banali, una maggiore personalizzazione, una riduzione dei costi e un miglioramento dell’accessibilità. Tuttavia, quattro persone su cinque sono anche preoccupate per i rischi, e due su cinque riferiscono di aver subito impatti negativi dall’IA. Questi vanno dalla perdita di interazione umana ai rischi informatici, fino alla proliferazione di disinformazione e risultati inaccurati.

Il 70% delle persone ritiene che sia necessaria una regolamentazione dell’IA, ma solo il 43% crede che le leggi e le regolazioni esistenti siano adeguate. C’è una chiara domanda pubblica per leggi e regolamenti internazionali e per l’industria affinché collabori con i governi per mitigare tali rischi.

In diverse regioni, si sta osservando l’emergere dell’IA in molte industrie e nella vita quotidiana. I governi regionali stanno affrontando lo sviluppo di politiche per tutelare la privacy dei dati, mitigare i rischi percepiti dell’IA, esplorando al contempo le vaste opportunità che la tecnologia sblocca per il capitale umano e lo sviluppo economico.

È imperativo che i sistemi di IA siano stabiliti su una base di buona governance, che contribuirà a promuovere fiducia. Gli utenti desiderano garanzie riguardo ai sistemi di IA con cui interagiscono. Pertanto, il potenziale completo dell’IA può essere realizzato solo se il pubblico ha fiducia nei sistemi che prendono decisioni o li assistono.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...