La fiducia nell’IA generativa cresce a livello globale, ma mancano le misure di sicurezza

La fiducia nella GenAI cresce a livello globale nonostante le lacune nella sicurezza dell’AI

SAS, un leader globale nel settore dei dati e dell’AI, ha recentemente rilasciato una nuova ricerca che esplora l’uso, l’impatto e l’affidabilità dell’AI. Il IDC Data and AI Impact Report: The Trust Imperative, commissionato da SAS, ha rilevato che i leader IT e aziendali segnalano una maggiore fiducia nella Generative AI rispetto a qualsiasi altra forma di AI.

La ricerca globale sull’uso e l’adozione dell’AI ha anche evidenziato che solo il 40% delle organizzazioni sta investendo per rendere i sistemi AI affidabili attraverso governance, spiegabilità e misure etiche, nonostante le organizzazioni che prioritizzano un’AI affidabile siano 60% più propense a raddoppiare il ROI dei progetti AI. Paradossalmente, tra coloro che segnalano il minor investimento in sistemi AI affidabili, la GenAI (ad esempio, ChatGPT) è vista come 200% più affidabile rispetto all’AI tradizionale (ad esempio, machine learning), nonostante quest’ultima sia la forma di AI più consolidata, affidabile e spiegabile.

“La nostra ricerca mostra una contraddizione: le forme di AI con interattività umana e familiarità sociale sembrano incoraggiare la maggiore fiducia, indipendentemente dall’affidabilità o dalla precisione effettiva”, ha commentato un esperto del settore. “Come fornitori di AI, professionisti e utenti, dobbiamo chiederci: la GenAI è fidata, ma è sempre affidabile? E i leader stanno applicando le necessarie misure di sicurezza e pratiche di governance per questa tecnologia emergente?”

Tecnologie AI emergenti evocano maggiore fiducia

Nel complesso, lo studio ha scoperto che le implementazioni AI più affidabili erano quelle delle tecnologie emergenti, come la GenAI e l’AI agentica, rispetto a forme più consolidate di AI. Quasi la metà dei rispondenti (48%) ha dichiarato di avere “completa fiducia” nella GenAI, mentre un terzo ha detto lo stesso per l’AI agentica (33%). La forma di AI meno fidata è l’AI tradizionale: meno di un quinto (18%) ha indicato una fiducia completa.

Nonostante la fiducia elevata nella GenAI e nell’AI agentica, i partecipanti al sondaggio hanno espresso preoccupazioni riguardo alla privacy dei dati (62%), alla trasparenza e alla spiegabilità (57%), e all’uso etico (56%).

Le misure di sicurezza AI in ritardo indeboliscono l’impatto dell’AI e il ROI

Lo studio ha mostrato un rapido aumento nell’uso dell’AI, in particolare della GenAI, che ha rapidamente superato l’AI tradizionale sia in visibilità che in applicazione (81% contro 66%). Ciò ha sollevato un nuovo livello di rischi e preoccupazioni etiche.

In tutte le regioni, i ricercatori IDC hanno identificato un disallineamento tra quanto le organizzazioni si fidano dell’AI e quanto la tecnologia sia effettivamente affidabile. Secondo lo studio, mentre quasi 8 su 10 (78%) delle organizzazioni affermano di fidarsi completamente dell’AI, solo il 40% ha investito per rendere i sistemi dimostrabilmente affidabili attraverso governance AI, spiegabilità e misure etiche.

I ricercatori hanno diviso i partecipanti al sondaggio in leader e seguaci dell’AI affidabile. I leader hanno investito di più in pratiche, tecnologie e quadri di governance per rendere i loro sistemi AI affidabili e sembrano raccogliere i benefici. Questi stessi leader dell’AI affidabile erano 1,6 volte più propensi a segnalare un ROI doppio o maggiore sui loro progetti AI.

La mancanza di solide fondamenta dati e governance frena l’AI

Man mano che i sistemi AI diventano più autonomi e profondamente integrati nei processi critici, anche le fondamenta dei dati diventano più importanti. La qualità, la diversità e la governance dei dati influenzano direttamente i risultati dell’AI, rendendo strategie di dati intelligenti fondamentali per realizzare benefici (ad esempio, ROI, guadagni di produttività) e mitigare i rischi.

Lo studio ha identificato tre grandi ostacoli che impediscono il successo delle implementazioni AI: infrastrutture dati deboli, scarsa governance e mancanza di competenze AI. Quasi la metà (49%) delle organizzazioni cita fondamenti dati che non sono centralizzati o ambienti cloud non ottimizzati come un grande ostacolo. Questo è seguito da una mancanza di processi di governance dei dati sufficienti (44%) e dalla carenza di specialisti qualificati all’interno della loro organizzazione (b41%).

Il principale problema segnalato nella gestione dei dati utilizzati nelle implementazioni AI è la difficoltà di accesso a fonti di dati rilevanti (58%). Altri problemi principali includono questioni di privacy dei dati e di compliance (49%) e la qualità dei dati (b46%).

“Per il bene della società, delle aziende e dei dipendenti – la fiducia nell’AI è imperativa,” ha dichiarato un esperto del settore. “Per raggiungere questo obiettivo, l’industria dell’AI deve aumentare il tasso di successo delle implementazioni, gli esseri umani devono rivedere criticamente i risultati dell’AI e la leadership deve responsabilizzare la forza lavoro con l’AI.”

Per ulteriori approfondimenti sui risultati del sondaggio, è possibile consultare il dashboard interattivo.

Il SAS Innovate 2026 – un’esperienza unica per leader aziendali, utenti tecnici e partner SAS – si svolgerà dal 27 al 30 aprile 2026 a Grapevine, Texas. Visita il sito SAS Innovate per maggiori informazioni e per prenotare la data!

More Insights

Costruire un Futuro AI Responsabile

L'IA non è più un argomento di nicchia, è diventata centrale nella progettazione dei prodotti e nelle strategie aziendali. I responsabili politici devono trovare un equilibrio tra la protezione delle...

Scuola Canadese di Intelligenza Artificiale Etica: Una Rivoluzione Necessaria

Ontario Tech lancia la prima e unica Scuola di Intelligenza Artificiale Etica del Canada, un'iniziativa che sottolinea l'importanza della governance dell'IA. Questa scuola mira a garantire che...

La sicurezza dei teenager nell’era dell’IA

Le recenti misure delle aziende tecnologiche, come OpenAI e Meta, mirano a migliorare la sicurezza dei teenager nell'uso dell'IA, introducendo controlli parentali e algoritmi di previsione dell'età...

Regole sull’IA dell’UE: Rischi, Sanzioni e Influenza Globale

L'Unione Europea sta introducendo nuove normative sull'intelligenza artificiale con l'AI Act, che classifica i sistemi di IA in base al loro potenziale danno. Le applicazioni ad alto rischio, come...

Sandbox AI per la Sicurezza e l’Innovazione nel Settore Pubblico

Nel 2023, il Dipartimento della Tecnologia della California ha lanciato un sandbox di intelligenza artificiale generativa che consente ai dipendenti statali di sperimentare in sicurezza come integrare...

La fiducia nell’IA generativa cresce a livello globale, ma mancano le misure di sicurezza

La ricerca di SAS ha rivelato che i leader IT e aziendali hanno maggiore fiducia nell'IA generativa rispetto ad altre forme di IA, nonostante solo il 40% investa per rendere i sistemi IA affidabili...

La rivoluzione silenziosa del Kazakistan: trasformazione digitale con AI e criptovalute

Il Kazakistan sta trasformando la sua economia basata sulle materie prime in una nazione digitale, con un focus su intelligenza artificiale e digitalizzazione. Il presidente Tokayev ha annunciato la...

Legge italiana sulla trasparenza e sicurezza dell’IA: Un passo decisivo

La California ha introdotto la prima legge completa sulla sicurezza e la trasparenza dell'IA negli Stati Uniti, firmando il Senate Bill 53 (TFAIA) il 29 settembre 2025. Questa legislazione stabilisce...

Collaborazione e Competizione nell’Intelligenza Artificiale

Il progetto Red Cell mira a sfidare le assunzioni e il pensiero di gruppo nel contesto delle politiche di sicurezza nazionale degli Stati Uniti. L'era dell'intelligenza artificiale sta rimodellando il...