Violazioni Regolatorie dell’IA e Aumento delle Controversie Legali nel Settore Tecnologico
Secondo un’indagine condotta da Gartner, le violazioni regolatorie dell’IA porteranno a un aumento del 30% delle controversie legali per le aziende tecnologiche entro il 2028. Questo dato è emerso da un sondaggio tra 360 leader IT coinvolti nella diffusione degli strumenti di intelligenza artificiale generativa (GenAI).
Risultati del Sondaggio
Più del 70% dei partecipanti ha indicato che la conformità normativa è tra le tre principali sfide per l’implementazione di assistenti alla produttività GenAI. Solo il 23% degli intervistati si è dichiarato molto fiducioso nella capacità della propria organizzazione di gestire gli aspetti di sicurezza e governance durante il rollout degli strumenti GenAI.
Incoerenza Normativa Globale
“Le normative globali sull’IA variano ampiamente, riflettendo la valutazione di ciascun paese riguardo all’equilibrio tra leadership, innovazione e agilità rispetto alle priorità di mitigazione dei rischi”, ha dichiarato un analista senior di Gartner. Questa situazione porta a obblighi di conformità incoerenti e complicati, aumentando il rischio di responsabilità per le aziende.
Impatto del Clima Geopolitico
Il clima geopolitico ha un impatto crescente sulla strategia GenAI, con il 57% dei leader IT non statunitensi che affermano che ha influenzato almeno moderatamente la loro strategia di distribuzione. Tuttavia, quasi il 60% di questi ha dichiarato di non essere in grado o di non voler adottare alternative GenAI non statunitensi.
Sentiment verso la Sovranità dell’IA
Un recente sondaggio ha rivelato che il 40% dei partecipanti ha una percezione positiva nei confronti della sovranità dell’IA, mentre il 36% ha adottato un approccio neutro. Inoltre, 66% degli intervistati ha indicato di essere proattivo rispetto alla strategia di IA sovrana.
Raccomandazioni per i Leader IT
Gartner ha esortato i leader IT a rafforzare la moderazione delle uscite, addestrando i modelli per ingegnerizzare l’autocorrezione, creando procedure rigorose di revisione dei casi d’uso che valutano i rischi e utilizzando test di controllo intorno al discorso generato dall’IA.
È fondamentale aumentare i test dei modelli e il sandboxing, formando un team multidisciplinare composto da ingegneri decisionali, scienziati dei dati e consulenti legali per progettare protocolli di pre-test e validare l’output del modello contro risultati indesiderati.