La fiducia nella GenAI cresce a livello globale nonostante le lacune nella sicurezza dell’AI
SAS, un leader globale nel settore dei dati e dell’AI, ha recentemente rilasciato una nuova ricerca che esplora l’uso, l’impatto e l’affidabilità dell’AI. Il IDC Data and AI Impact Report: The Trust Imperative, commissionato da SAS, ha rilevato che i leader IT e aziendali segnalano una maggiore fiducia nella Generative AI rispetto a qualsiasi altra forma di AI.
La ricerca globale sull’uso e l’adozione dell’AI ha anche evidenziato che solo il 40% delle organizzazioni sta investendo per rendere i sistemi AI affidabili attraverso governance, spiegabilità e misure etiche, nonostante le organizzazioni che prioritizzano un’AI affidabile siano 60% più propense a raddoppiare il ROI dei progetti AI. Paradossalmente, tra coloro che segnalano il minor investimento in sistemi AI affidabili, la GenAI (ad esempio, ChatGPT) è vista come 200% più affidabile rispetto all’AI tradizionale (ad esempio, machine learning), nonostante quest’ultima sia la forma di AI più consolidata, affidabile e spiegabile.
“La nostra ricerca mostra una contraddizione: le forme di AI con interattività umana e familiarità sociale sembrano incoraggiare la maggiore fiducia, indipendentemente dall’affidabilità o dalla precisione effettiva”, ha commentato un esperto del settore. “Come fornitori di AI, professionisti e utenti, dobbiamo chiederci: la GenAI è fidata, ma è sempre affidabile? E i leader stanno applicando le necessarie misure di sicurezza e pratiche di governance per questa tecnologia emergente?”
Tecnologie AI emergenti evocano maggiore fiducia
Nel complesso, lo studio ha scoperto che le implementazioni AI più affidabili erano quelle delle tecnologie emergenti, come la GenAI e l’AI agentica, rispetto a forme più consolidate di AI. Quasi la metà dei rispondenti (48%) ha dichiarato di avere “completa fiducia” nella GenAI, mentre un terzo ha detto lo stesso per l’AI agentica (33%). La forma di AI meno fidata è l’AI tradizionale: meno di un quinto (18%) ha indicato una fiducia completa.
Nonostante la fiducia elevata nella GenAI e nell’AI agentica, i partecipanti al sondaggio hanno espresso preoccupazioni riguardo alla privacy dei dati (62%), alla trasparenza e alla spiegabilità (57%), e all’uso etico (56%).
Le misure di sicurezza AI in ritardo indeboliscono l’impatto dell’AI e il ROI
Lo studio ha mostrato un rapido aumento nell’uso dell’AI, in particolare della GenAI, che ha rapidamente superato l’AI tradizionale sia in visibilità che in applicazione (81% contro 66%). Ciò ha sollevato un nuovo livello di rischi e preoccupazioni etiche.
In tutte le regioni, i ricercatori IDC hanno identificato un disallineamento tra quanto le organizzazioni si fidano dell’AI e quanto la tecnologia sia effettivamente affidabile. Secondo lo studio, mentre quasi 8 su 10 (78%) delle organizzazioni affermano di fidarsi completamente dell’AI, solo il 40% ha investito per rendere i sistemi dimostrabilmente affidabili attraverso governance AI, spiegabilità e misure etiche.
I ricercatori hanno diviso i partecipanti al sondaggio in leader e seguaci dell’AI affidabile. I leader hanno investito di più in pratiche, tecnologie e quadri di governance per rendere i loro sistemi AI affidabili e sembrano raccogliere i benefici. Questi stessi leader dell’AI affidabile erano 1,6 volte più propensi a segnalare un ROI doppio o maggiore sui loro progetti AI.
La mancanza di solide fondamenta dati e governance frena l’AI
Man mano che i sistemi AI diventano più autonomi e profondamente integrati nei processi critici, anche le fondamenta dei dati diventano più importanti. La qualità, la diversità e la governance dei dati influenzano direttamente i risultati dell’AI, rendendo strategie di dati intelligenti fondamentali per realizzare benefici (ad esempio, ROI, guadagni di produttività) e mitigare i rischi.
Lo studio ha identificato tre grandi ostacoli che impediscono il successo delle implementazioni AI: infrastrutture dati deboli, scarsa governance e mancanza di competenze AI. Quasi la metà (49%) delle organizzazioni cita fondamenti dati che non sono centralizzati o ambienti cloud non ottimizzati come un grande ostacolo. Questo è seguito da una mancanza di processi di governance dei dati sufficienti (44%) e dalla carenza di specialisti qualificati all’interno della loro organizzazione (b41%).
Il principale problema segnalato nella gestione dei dati utilizzati nelle implementazioni AI è la difficoltà di accesso a fonti di dati rilevanti (58%). Altri problemi principali includono questioni di privacy dei dati e di compliance (49%) e la qualità dei dati (b46%).
“Per il bene della società, delle aziende e dei dipendenti – la fiducia nell’AI è imperativa,” ha dichiarato un esperto del settore. “Per raggiungere questo obiettivo, l’industria dell’AI deve aumentare il tasso di successo delle implementazioni, gli esseri umani devono rivedere criticamente i risultati dell’AI e la leadership deve responsabilizzare la forza lavoro con l’AI.”
Per ulteriori approfondimenti sui risultati del sondaggio, è possibile consultare il dashboard interattivo.
Il SAS Innovate 2026 – un’esperienza unica per leader aziendali, utenti tecnici e partner SAS – si svolgerà dal 27 al 30 aprile 2026 a Grapevine, Texas. Visita il sito SAS Innovate per maggiori informazioni e per prenotare la data!