La preparazione delle aziende alle regole sull’IA e la pressione del GDPR
Un sondaggio condotto tra professionisti della compliance, legali e IT ha rivelato che solo una piccola minoranza considera le proprie organizzazioni completamente pronte per i requisiti normativi che stanno definendo l’uso dell’intelligenza artificiale (IA). Molti hanno anche segnalato una formazione del personale limitata o inefficace.
Risultati del sondaggio
Il sondaggio, effettuato da un fornitore di eLearning per la compliance, ha coinvolto 230 professionisti sulla preparazione alle regole che riguardano l’uso dell’IA in settori regolamentati. Solo il 3,5% ha descritto la propria organizzazione come completamente preparata per il panorama normativo attuale dell’IA.
Un’incertezza diffusa è emersa dai risultati: circa il 29% ha dichiarato di essere ancora in fase di comprensione delle norme applicabili alla propria organizzazione. Un altro 28% era consapevole delle norme rilevanti ma non aveva un piano chiaro, mentre il 6% si è mostrato incerto sulla propria posizione. Complessivamente, il 63% ha affermato di non poter descrivere la propria organizzazione come preparata per l’ambiente emergente.
Carenze nella formazione
I risultati evidenziano un significativo divario nella formazione e nella consapevolezza interna. Solo il 22% ha affermato che la propria organizzazione offre una formazione sull’IA che considerano efficace. Quasi la metà (48%) ha dichiarato che la propria organizzazione non ha formazione sull’IA, ma desidererebbe fornirla. Il 12% ha affermato che non ci sono piani per offrire formazione, mentre un altro 12% ha detto che esiste una certa formazione, ma non è molto efficace.
Questi risultati suggeriscono che molte organizzazioni si affidano a conoscenze informali mentre gli strumenti di IA si diffondono tra le funzioni aziendali. Per i team di compliance e IT, la mancanza di una formazione strutturata può complicare la governance, la registrazione e l’assicurazione interna, specialmente quando sono coinvolti dati personali.
Pressione del GDPR
I rispondenti hanno identificato diverse aree in cui i requisiti di protezione dei dati creano difficoltà pratiche per l’uso dell’IA. Il problema più comune era rappresentato dalle regole per la decisione automatizzata (27%). La minimizzazione e la conservazione dei dati seguivano (23%), con la supervisione dei fornitori e dei modelli al terzo posto (21%).
Questi risultati evidenziano sfide in più parti del quadro di protezione dei dati piuttosto che un singolo punto di attrito. I sistemi di IA possono attingere a grandi set di dati, produrre risultati difficili da spiegare e fare affidamento su fornitori terzi, aumentando l’onere della mappatura dei flussi di dati e della documentazione delle decisioni di compliance.
Implicazioni operative
Pur segnalando un impatto limitato immediato sulle operazioni di compliance, un gruppo più ristretto sta già vivendo significative interruzioni. Quasi due terzi (64%) hanno descritto l’IA come solo leggermente dirompente o per niente dirompente per il loro programma di compliance finora. Al contrario, il 12% ha affermato che l’IA è stata molto o estremamente dirompente.
I dati suggeriscono un’adozione non uniforme. Alcune organizzazioni stanno ancora testando casi d’uso e impostando politiche, mentre altre sono più avanzate nella distribuzione attraverso le funzioni. Ciò influisce sulla quantità di lavoro di compliance richiesto, compresi i controlli sui rischi, le verifiche di approvvigionamento e le revisioni di come gli strumenti di IA interagiscono con i dati personali.
Conclusione
La fiducia era altrettanto varia. Solo il 9% ha dichiarato di sentirsi molto sicuro che l’uso dell’IA nella propria organizzazione sia conforme. Un terzo (33%) ha affermato di non essere molto sicuro o affatto sicuro, mentre il gruppo più numeroso (30%) ha dichiarato di essere solo moderatamente sicuro.
I rispondenti hanno anche evidenziato la difficoltà di tenere il passo con il cambiamento normativo. La governance dell’IA in Europa e nel Regno Unito si sta evolvendo attraverso una combinazione di nuove regole specifiche per l’IA e l’applicazione di regimi esistenti come la protezione dei dati. In pratica, le organizzazioni potrebbero dover gestire la governance attraverso più team, inclusi legale, compliance, protezione dei dati, sicurezza e approvvigionamento.