Uso dell’IA al lavoro: rischi e responsabilità

Un’Indagine Rivelatrice sull’Uso dell’AI sul Posto di Lavoro

Un recente studio globale ha rivelato che la maggior parte dei lavoratori utilizza strumenti di intelligenza artificiale (AI) regolarmente sul lavoro, ma quasi la metà ammette di farlo in modo inappropriato. Questo report, che ha coinvolto oltre 32.000 dipendenti in 47 paesi, ha mostrato che il 58% degli impiegati usa intenzionalmente l’AI, con un terzo che la utilizza settimanalmente o quotidianamente.

I Vantaggi dell’Uso dell’AI

Molti impiegati riportano significativi benefici in termini di produttività e prestazioni derivanti dall’adozione di strumenti AI. Le aree di miglioramento includono:

  • Efficienza (67%)
  • Accesso alle informazioni (61%)
  • Innovazione (59%)
  • Qualità del lavoro (58%)

Questi risultati sono in linea con ricerche precedenti che dimostrano come l’AI possa guidare guadagni di produttività sia per i dipendenti che per le organizzazioni.

Rischi Associati all’Uso dell’AI

Tuttavia, una preoccupante percentuale di dipendenti utilizza l’AI in modi rischiosi, come l’upload di informazioni sensibili in strumenti pubblici, affidandosi alle risposte dell’AI senza verificarle e nascondendo il loro utilizzo. Circa il 47% degli intervistati ha dichiarato di aver utilizzato l’AI in modi che potrebbero essere considerati inappropriati, e il 63% ha osservato altri dipendenti fare lo stesso.

Informazioni Sensibili

Un aspetto chiave riguarda la gestione delle informazioni sensibili aziendali. Quasi la metà (48%) dei dipendenti ha caricato informazioni sensibili su strumenti generativi di AI pubblici, e 44% ha ammesso di aver utilizzato l’AI in modi contrari alle politiche aziendali.

Uso Complacente dell’AI

Il nostro studio ha anche evidenziato un uso complacente dell’AI, con il 66% degli intervistati che ha dichiarato di aver fatto affidamento sull’output dell’AI senza valutarlo. Questo ha portato a errori nel lavoro, con un 56% che ha confermato di aver commesso sbagli a causa dell’AI. I dipendenti più giovani (18-34 anni) tendono a utilizzare l’AI in modo inappropriato e complacente più rispetto agli over 35.

La Necessità di Governance e Formazione

Le scoperte indicano un significativo divario nella governance degli strumenti AI e un urgente bisogno di linee guida chiare per l’uso responsabile. Solo un 34% degli impiegati afferma che la propria organizzazione ha una politica riguardante l’uso dell’AI generativa.

È fondamentale investire in formazione sull’AI e sviluppare la competenza dei dipendenti nell’utilizzo di tali strumenti. I dipendenti che ricevono formazione sull’AI tendono a fidarsi di più dell’uso dell’AI sul lavoro e a ottenere maggiori benefici dalle sue applicazioni.

Cultura Aziendale e Sicurezza Psicologica

Creare un ambiente di lavoro psicologicamente sicuro, dove i dipendenti si sentano a proprio agio nel condividere come e quando utilizzano gli strumenti AI, è cruciale. Questo non solo migliora la gestione del rischio ma promuove anche una cultura di apprendimento condiviso e innovazione.

L’AI ha il potenziale di migliorare il modo in cui lavoriamo, ma richiede una forza lavoro competente nell’AI, robusti meccanismi di governance e linee guida chiare. Senza questi elementi, l’AI diventa semplicemente una responsabilità non gestita.

More Insights

L’Utah guida la rivoluzione delle politiche sull’IA

Un legislatore dell'Utah è stato recentemente scelto per guidare un gruppo di lavoro nazionale per aiutare a orientare le politiche statali sull'intelligenza artificiale. Il rappresentante statale...

Nuove Regole per l’Intelligenza Artificiale in Texas

Il governatore del Texas ha firmato la legge sul governo responsabile dell'intelligenza artificiale del Texas (TRAIGA) il 22 giugno 2025, rendendo il Texas il secondo stato a introdurre una...

Nuove Regole dell’UE per l’Intelligenza Artificiale: Un Futuro Sicuro

L'Unione Europea ha implementato la propria legge sull'IA, rilasciando linee guida per garantire la conformità e bilanciare l'innovazione dell'IA con la sicurezza. Questa legge introduce categorie di...

Politiche internazionali per l’intelligenza artificiale: un nuovo orizzonte

Dall'inizio del 2025, la direzione strategica della politica sull'intelligenza artificiale (AI) si è drasticamente spostata, concentrandosi sulla capacità degli stati nazionali di "vincere la corsa...

Politiche internazionali per l’intelligenza artificiale: un nuovo orizzonte

Dall'inizio del 2025, la direzione strategica della politica sull'intelligenza artificiale (AI) si è drasticamente spostata, concentrandosi sulla capacità degli stati nazionali di "vincere la corsa...

Rischi di conformità nell’integrazione dell’intelligenza artificiale

L'intelligenza artificiale sta diventando una parte fondamentale delle funzioni di conformità aziendale, semplificando compiti come le revisioni automatiche dei contratti e il monitoraggio continuo...

Governanza dell’AI: il divario tra adozione e gestione

Secondo una nuova ricerca, il 93% delle aziende nel Regno Unito utilizza l'IA in qualche modo, ma la maggior parte manca di quadri per gestire i rischi. Solo il sette percento ha implementato...

Governanza dei Dati nell’Atto AI dell’UE: Fondamenti e Implicazioni

La legge sull'intelligenza artificiale dell'Unione Europea (EU AI Act) propone un quadro per regolare l'IA, in particolare per i sistemi "ad alto rischio". L'articolo 10 si concentra sui dati e sulla...

Codice di Pratica GPAI: Nuove Regole per l’Intelligenza Artificiale in Europa

La Commissione Europea ha pubblicato un Codice di Pratica volontario per aiutare l'industria a conformarsi agli obblighi della legge sull'IA riguardo alla sicurezza, trasparenza e copyright per i...