La fiducia nell’IA generativa cresce a livello globale, ma mancano le misure di sicurezza

La fiducia nella GenAI cresce a livello globale nonostante le lacune nella sicurezza dell’AI

SAS, un leader globale nel settore dei dati e dell’AI, ha recentemente rilasciato una nuova ricerca che esplora l’uso, l’impatto e l’affidabilità dell’AI. Il IDC Data and AI Impact Report: The Trust Imperative, commissionato da SAS, ha rilevato che i leader IT e aziendali segnalano una maggiore fiducia nella Generative AI rispetto a qualsiasi altra forma di AI.

La ricerca globale sull’uso e l’adozione dell’AI ha anche evidenziato che solo il 40% delle organizzazioni sta investendo per rendere i sistemi AI affidabili attraverso governance, spiegabilità e misure etiche, nonostante le organizzazioni che prioritizzano un’AI affidabile siano 60% più propense a raddoppiare il ROI dei progetti AI. Paradossalmente, tra coloro che segnalano il minor investimento in sistemi AI affidabili, la GenAI (ad esempio, ChatGPT) è vista come 200% più affidabile rispetto all’AI tradizionale (ad esempio, machine learning), nonostante quest’ultima sia la forma di AI più consolidata, affidabile e spiegabile.

“La nostra ricerca mostra una contraddizione: le forme di AI con interattività umana e familiarità sociale sembrano incoraggiare la maggiore fiducia, indipendentemente dall’affidabilità o dalla precisione effettiva”, ha commentato un esperto del settore. “Come fornitori di AI, professionisti e utenti, dobbiamo chiederci: la GenAI è fidata, ma è sempre affidabile? E i leader stanno applicando le necessarie misure di sicurezza e pratiche di governance per questa tecnologia emergente?”

Tecnologie AI emergenti evocano maggiore fiducia

Nel complesso, lo studio ha scoperto che le implementazioni AI più affidabili erano quelle delle tecnologie emergenti, come la GenAI e l’AI agentica, rispetto a forme più consolidate di AI. Quasi la metà dei rispondenti (48%) ha dichiarato di avere “completa fiducia” nella GenAI, mentre un terzo ha detto lo stesso per l’AI agentica (33%). La forma di AI meno fidata è l’AI tradizionale: meno di un quinto (18%) ha indicato una fiducia completa.

Nonostante la fiducia elevata nella GenAI e nell’AI agentica, i partecipanti al sondaggio hanno espresso preoccupazioni riguardo alla privacy dei dati (62%), alla trasparenza e alla spiegabilità (57%), e all’uso etico (56%).

Le misure di sicurezza AI in ritardo indeboliscono l’impatto dell’AI e il ROI

Lo studio ha mostrato un rapido aumento nell’uso dell’AI, in particolare della GenAI, che ha rapidamente superato l’AI tradizionale sia in visibilità che in applicazione (81% contro 66%). Ciò ha sollevato un nuovo livello di rischi e preoccupazioni etiche.

In tutte le regioni, i ricercatori IDC hanno identificato un disallineamento tra quanto le organizzazioni si fidano dell’AI e quanto la tecnologia sia effettivamente affidabile. Secondo lo studio, mentre quasi 8 su 10 (78%) delle organizzazioni affermano di fidarsi completamente dell’AI, solo il 40% ha investito per rendere i sistemi dimostrabilmente affidabili attraverso governance AI, spiegabilità e misure etiche.

I ricercatori hanno diviso i partecipanti al sondaggio in leader e seguaci dell’AI affidabile. I leader hanno investito di più in pratiche, tecnologie e quadri di governance per rendere i loro sistemi AI affidabili e sembrano raccogliere i benefici. Questi stessi leader dell’AI affidabile erano 1,6 volte più propensi a segnalare un ROI doppio o maggiore sui loro progetti AI.

La mancanza di solide fondamenta dati e governance frena l’AI

Man mano che i sistemi AI diventano più autonomi e profondamente integrati nei processi critici, anche le fondamenta dei dati diventano più importanti. La qualità, la diversità e la governance dei dati influenzano direttamente i risultati dell’AI, rendendo strategie di dati intelligenti fondamentali per realizzare benefici (ad esempio, ROI, guadagni di produttività) e mitigare i rischi.

Lo studio ha identificato tre grandi ostacoli che impediscono il successo delle implementazioni AI: infrastrutture dati deboli, scarsa governance e mancanza di competenze AI. Quasi la metà (49%) delle organizzazioni cita fondamenti dati che non sono centralizzati o ambienti cloud non ottimizzati come un grande ostacolo. Questo è seguito da una mancanza di processi di governance dei dati sufficienti (44%) e dalla carenza di specialisti qualificati all’interno della loro organizzazione (b41%).

Il principale problema segnalato nella gestione dei dati utilizzati nelle implementazioni AI è la difficoltà di accesso a fonti di dati rilevanti (58%). Altri problemi principali includono questioni di privacy dei dati e di compliance (49%) e la qualità dei dati (b46%).

“Per il bene della società, delle aziende e dei dipendenti – la fiducia nell’AI è imperativa,” ha dichiarato un esperto del settore. “Per raggiungere questo obiettivo, l’industria dell’AI deve aumentare il tasso di successo delle implementazioni, gli esseri umani devono rivedere criticamente i risultati dell’AI e la leadership deve responsabilizzare la forza lavoro con l’AI.”

Per ulteriori approfondimenti sui risultati del sondaggio, è possibile consultare il dashboard interattivo.

Il SAS Innovate 2026 – un’esperienza unica per leader aziendali, utenti tecnici e partner SAS – si svolgerà dal 27 al 30 aprile 2026 a Grapevine, Texas. Visita il sito SAS Innovate per maggiori informazioni e per prenotare la data!

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...