Pericoli Nascosti degli AI Copilots e Misure di Sicurezza Necessarie

Le pericoli nascosti degli AI Copilot e come rafforzare la sicurezza e la conformità

Gli AI Copilot, come quello di Microsoft, introducono nuovi rischi di sicurezza, privacy e conformità. Se questi modelli non sono adeguatamente protetti, le organizzazioni rischiano di diventare il prossimo titolo di cronaca, da violazioni dei dati a violazioni delle normative sulla privacy.

I rischi associati agli AI Copilot non sono solo teorici: incidenti reali hanno già dimostrato i pericoli di un’adozione non governata dell’IA. Recentemente, l’assistente AI Copilot di Microsoft ha esposto i contenuti di oltre 20.000 repository GitHub privati di aziende come Google, Intel, Huawei, PayPal, IBM, Tencent e, ironicamente, Microsoft. Inoltre, nel 2023, Microsoft AI ha leakato 38TB di dati riservati a causa di una misconfigurazione dei controlli di accesso su GitHub.

Questi incidenti servono come monito sui rischi posti da dati eccessivamente esposti e da una governance inadeguata.

Modello AI a sistema aperto vs. a ciclo chiuso

Prima di discutere come mettere in sicurezza i modelli di IA, è importante capire cosa significa quando si parla di un modello di IA a sistema aperto o a ciclo chiuso.

Un modello di IA a ciclo chiuso consente alle imprese di addestrare i modelli di IA solo sui propri dati all’interno del proprio ambiente Azure. Un ciclo chiuso riduce il rischio che l’IA condivida dati sensibili tra clienti o geolocalizzazioni.

Tuttavia, modelli di IA come Copilot e ChatGPT non sono modelli a ciclo chiuso e apprendono continuamente, aggiornando le loro risposte in base ai prompt degli utenti e ai dati provenienti da internet. Sebbene ci siano molti vantaggi nei modelli di IA aperti, introducono anche i rischi sopra menzionati. Le organizzazioni possono garantire un’adozione sicura dell’IA implementando un approccio multilivello alla sicurezza e alla governance.

Un approccio multilivello alla sicurezza dell’IA generativa

Non si può proteggere ciò che non si conosce. Il primo passo per preparare la propria organizzazione all’IA è la capacità di classificare e etichettare tutti i dati che vivono nei propri sistemi, inclusi i dati sensibili, riservati o idonei per il consumo da parte dell’IA. Senza una classificazione e un’etichettatura adeguate, l’IA – come Microsoft Copilot – potrebbe elaborare ed esporre dati che dovrebbero rimanere riservati.

Le organizzazioni devono implementare misure di governance come:

  • Condurre valutazioni complete dei rischi dei dati su piattaforme come OneDrive, SharePoint e Teams
  • Etichettare e classificare i dati sensibili, critici o regolamentati per identificare i dati sicuri per l’IA (o riservati)
  • Stabilire politiche automatizzate per segnalare o rimediare alle violazioni delle politiche prima che queste si aggravino
  • Eliminare dati duplicati, ridondanti e obsoleti dai data store utilizzati per addestrare l’IA
  • Limitare le autorizzazioni di accesso dell’IA ai dati che sono stati designati e convalidati come sicuri per l’uso dell’IA

Una volta che le organizzazioni stabiliscono la visibilità sui propri dati, il passo cruciale successivo è controllare l’accesso. Come dimostrato dall’esposizione dei dati su GitHub menzionata in precedenza, anche i dati etichettati e classificati possono rappresentare un rischio se non si limitano gli accessi ai dati alimentati in un modello di IA.

I leader della sicurezza devono essere in grado di tracciare quali set di dati vengono utilizzati per addestrare i modelli di IA e audire le uscite generate dall’IA per potenziali violazioni di conformità. Senza implementare con successo forti misure di gestione dei dati dell’IA, le organizzazioni rischiano di violare il GDPR, il CCPA o altre normative sulla privacy.

Queste violazioni normative portano a sanzioni imposte alle organizzazioni e potrebbero danneggiare il marchio dell’organizzazione e perdere la fiducia dei consumatori. È per questo che le organizzazioni devono assicurarsi che la privacy sia integrata nella base della loro strategia di sicurezza e governance dell’IA per evitare di violare involontariamente gli obblighi normativi.

La sicurezza dei dati dell’IA e la governance nell’era dell’IA

La trasformazione digitale guidata dall’IA è qui, e richiede una nuova mentalità per la sicurezza e la conformità. Le organizzazioni che non implementano forti misure di governance rischiano di esporre il loro bene più prezioso — i dati. È il momento per i leader IT di far rispettare le politiche di sicurezza dell’IA e garantire che l’IA generativa sia utilizzata in modo sicuro e responsabile.

More Insights

Pronti per l’AI: Valutare l’Adattamento nel Settore Farmaceutico

L'intelligenza artificiale è destinata a trasformare ogni angolo dell'industria farmaceutica, dalla scoperta delle molecole alle sperimentazioni cliniche. È fondamentale che le organizzazioni...

L’intelligenza artificiale come co-pilota del governo

La UAE ha annunciato che un Sistema Nazionale di Intelligenza Artificiale diventerà un membro non votante di tutte le federazioni e delle aziende governative, iniziando il prossimo anno. Questa...

Codice di condotta per le aziende: prepararsi alle nuove regole sull’IA

Un codice di condotta progettato per aiutare le aziende a conformarsi alle norme sull'intelligenza artificiale dell'Unione Europea potrebbe entrare in vigore solo alla fine del 2025. La Commissione...

Crisi dell’Intelligenza Artificiale: Il Fallimento delle Aziende

L'intelligenza artificiale ha raggiunto un punto di svolta, ma la maggior parte delle iniziative AI non arriva mai alla produzione, esponendo le organizzazioni a rischi invisibili. Senza un'adeguata...

Periodo di grazia per la conformità all’AI Code

La commissione sta considerando di offrire un periodo di grazia alle aziende che firmano il codice di conformità sull'IA. Questa decisione potrebbe influenzare notevolmente le pratiche aziendali nel...

Texas e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Il 22 giugno 2025, il Texas è diventato l'ultimo stato ad approvare una legislazione completa sull'IA con il passaggio del Texas Responsible Artificial Intelligence Governance Act. Questa nuova legge...

Texas e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Il 22 giugno 2025, il Texas è diventato l'ultimo stato ad approvare una legislazione completa sull'IA con il passaggio del Texas Responsible Artificial Intelligence Governance Act. Questa nuova legge...

Leggi contro i deepfake in Europa: cosa sapere

La Danimarca ha deciso di concedere alle persone i diritti d'autore sulla propria immagine per combattere i video "deepfake". Altri paesi europei stanno adottando leggi simili per affrontare l'aumento...

Intelligenza Artificiale: Un Futuro Responsabile e Sostenibile

Il governo federale desidera potenziare la produttività lanciando l'intelligenza artificiale (IA) "su larga scala". Tuttavia, senza un'implementazione riflessiva e una leadership esperta in IA...