Rischi e Soluzioni per l’Utilizzo dell’AI Nascosta nelle Aziende

Rischi di Conformità e Reputazione nell’Uso di Shadow AI da Parte dei Lavoratori

Con l’adozione crescente degli strumenti di intelligenza artificiale, emerge un nuovo problema: quando i datori di lavoro non forniscono strumenti di AI approvati, molti lavoratori continueranno a utilizzare quelli che preferiscono. In settori come sanità, manifatturiero e servizi finanziari, l’uso di strumenti di shadow AI è aumentato di oltre il 200% su base annua. Secondo un rapporto di CX Trends 2025, tra i dipendenti delle aziende che utilizzano AI generativa, quasi sette su dieci accedono a assistenti pubblici come ChatGPT.

La ricerca di Ivanti ha rivelato che il 46% dei lavoratori d’ufficio, compresi i professionisti IT che comprendono i rischi, utilizza strumenti di AI non forniti dai propri datori di lavoro.

La Necessità di un’Approccio Proattivo

“Poiché l’AI non scomparirà, le aziende devono affrontare l’adozione in modo proattivo piuttosto che reattivo”, afferma un esperto nel settore. Questo approccio include l’assicurarsi che i dipendenti utilizzino l’AI in modo sicuro, implementando guardrail per prevenire potenziali problemi di sicurezza e privacy.

L’AI può migliorare la produttività, ma quando i guadagni provengono da strumenti di shadow AI, le aziende si espongono a rischi di sicurezza significativi.

Come lo Shadow AI Rende le Organizzazioni Vulnerabili

Parallelamente allo shadow IT, lo shadow AI si riferisce all’uso di strumenti di intelligenza artificiale non approvati. Esempi includono l’uso di Microsoft Copilot con un account personale su un dispositivo di lavoro o l’inserimento di dati aziendali in una versione pubblica di ChatGPT.

Nonostante gli strumenti di shadow AI possano aumentare la produttività, presentano significativi svantaggi organizzativi. In particolare, minacciano direttamente la privacy e la sicurezza dei dati. L’inserimento di dati sensibili in strumenti di AI pubblici può portare a violazioni di normative come il GDPR o l’HIPAA e compromettere dati proprietari.

Rischi di Conformità e Reputazione

Le aziende in settori altamente regolamentati come la finanza e la sanità affrontano rischi di conformità e reputazione particolarmente acuti. “Senza una formazione robusta sulle pratiche corrette, i lavoratori ben intenzionati possono facilmente violare le norme di conformità”, avverte un esperto legale.

Inoltre, qualsiasi software non approvato può introdurre vulnerabilità di rete o di sistema, inclusi codici malevoli o tentativi di phishing.

Considerazioni sulla Riservatezza e sull’Uso dei Dati

La maggior parte degli shadow AI utilizzati si basa su versioni gratuite degli strumenti, che di solito hanno termini permissivi riguardanti l’uso degli input e degli output, consentendo che i dati vengano utilizzati per addestrare o migliorare i modelli.

Le aziende devono gestire set di dati sensibili con attenzione, poiché i dati potrebbero essere utilizzati per scopi secondari senza la loro conoscenza.

Come Dissuadere l’Uso di Shadow AI

Lo shadow AI non è semplicemente una questione di un ambiente tecnologico lassista; è un segnale che i dipendenti hanno esigenze non soddisfatte dagli strumenti e dalle politiche esistenti. La soluzione è consentire ai dipendenti di essere partner attivi nello sviluppo della governance dell’AI, promuovendo un dialogo aperto sull’uso degli strumenti.

Un approccio basato sul rischio all’adozione dell’AI si concentra sui dati che alimentano l’AI e su come l’azienda gestisce tali dati.

Conclusione

L’integrazione ufficiale degli AI copilots è un modo per combattere l’uso di shadow AI. I lavoratori che non possono utilizzare un copilota approvato potrebbero ricorrere a strumenti esterni. È importante garantire che uno strumento scelto sia integrato in modo efficace e che l’azienda comprenda quali dati può accedere e per quali scopi.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...