Rischi di Conformità e Reputazione nell’Uso di Shadow AI da Parte dei Lavoratori
Con l’adozione crescente degli strumenti di intelligenza artificiale, emerge un nuovo problema: quando i datori di lavoro non forniscono strumenti di AI approvati, molti lavoratori continueranno a utilizzare quelli che preferiscono. In settori come sanità, manifatturiero e servizi finanziari, l’uso di strumenti di shadow AI è aumentato di oltre il 200% su base annua. Secondo un rapporto di CX Trends 2025, tra i dipendenti delle aziende che utilizzano AI generativa, quasi sette su dieci accedono a assistenti pubblici come ChatGPT.
La ricerca di Ivanti ha rivelato che il 46% dei lavoratori d’ufficio, compresi i professionisti IT che comprendono i rischi, utilizza strumenti di AI non forniti dai propri datori di lavoro.
La Necessità di un’Approccio Proattivo
“Poiché l’AI non scomparirà, le aziende devono affrontare l’adozione in modo proattivo piuttosto che reattivo”, afferma un esperto nel settore. Questo approccio include l’assicurarsi che i dipendenti utilizzino l’AI in modo sicuro, implementando guardrail per prevenire potenziali problemi di sicurezza e privacy.
L’AI può migliorare la produttività, ma quando i guadagni provengono da strumenti di shadow AI, le aziende si espongono a rischi di sicurezza significativi.
Come lo Shadow AI Rende le Organizzazioni Vulnerabili
Parallelamente allo shadow IT, lo shadow AI si riferisce all’uso di strumenti di intelligenza artificiale non approvati. Esempi includono l’uso di Microsoft Copilot con un account personale su un dispositivo di lavoro o l’inserimento di dati aziendali in una versione pubblica di ChatGPT.
Nonostante gli strumenti di shadow AI possano aumentare la produttività, presentano significativi svantaggi organizzativi. In particolare, minacciano direttamente la privacy e la sicurezza dei dati. L’inserimento di dati sensibili in strumenti di AI pubblici può portare a violazioni di normative come il GDPR o l’HIPAA e compromettere dati proprietari.
Rischi di Conformità e Reputazione
Le aziende in settori altamente regolamentati come la finanza e la sanità affrontano rischi di conformità e reputazione particolarmente acuti. “Senza una formazione robusta sulle pratiche corrette, i lavoratori ben intenzionati possono facilmente violare le norme di conformità”, avverte un esperto legale.
Inoltre, qualsiasi software non approvato può introdurre vulnerabilità di rete o di sistema, inclusi codici malevoli o tentativi di phishing.
Considerazioni sulla Riservatezza e sull’Uso dei Dati
La maggior parte degli shadow AI utilizzati si basa su versioni gratuite degli strumenti, che di solito hanno termini permissivi riguardanti l’uso degli input e degli output, consentendo che i dati vengano utilizzati per addestrare o migliorare i modelli.
Le aziende devono gestire set di dati sensibili con attenzione, poiché i dati potrebbero essere utilizzati per scopi secondari senza la loro conoscenza.
Come Dissuadere l’Uso di Shadow AI
Lo shadow AI non è semplicemente una questione di un ambiente tecnologico lassista; è un segnale che i dipendenti hanno esigenze non soddisfatte dagli strumenti e dalle politiche esistenti. La soluzione è consentire ai dipendenti di essere partner attivi nello sviluppo della governance dell’AI, promuovendo un dialogo aperto sull’uso degli strumenti.
Un approccio basato sul rischio all’adozione dell’AI si concentra sui dati che alimentano l’AI e su come l’azienda gestisce tali dati.
Conclusione
L’integrazione ufficiale degli AI copilots è un modo per combattere l’uso di shadow AI. I lavoratori che non possono utilizzare un copilota approvato potrebbero ricorrere a strumenti esterni. È importante garantire che uno strumento scelto sia integrato in modo efficace e che l’azienda comprenda quali dati può accedere e per quali scopi.