Intelligenza Artificiale e Sicurezza: Rischi e Opportunità Emergenti

RSAC 2025: L’Intelligenza Artificiale, le lacune nella governance e le minacce interne

Quest’anno, l’Intelligenza Artificiale (AI) è stata un tema centrale della conferenza RSAC, ma non ci si aspettava che dominasse ogni conversazione. La conferenza ha registrato quasi 44.000 partecipanti, 730 relatori, 650 espositori e 400 membri dei media, dimostrando l’interesse crescente per l’AI nel campo della sicurezza informatica.

L’adozione dell’AI nella sicurezza informatica

Ci troviamo in una fase di transizione dall’implementazione di prove di concetto a un’adozione aggressiva dell’AI. Secondo la Cloud Security Alliance, il 90% delle organizzazioni sta attualmente adottando l’AI generativa per la sicurezza o pianifica di farlo. I professionisti IT e di sicurezza percepiscono queste tecnologie come un modo per migliorare le loro competenze e liberare tempo per compiti più gratificanti.

Tuttavia, i criminali informatici utilizzano anche queste innovazioni, con il rischio di malware potenziato dall’AI che rappresenta una delle principali minacce per i leader aziendali. Questa situazione crea una battaglia tra “buoni” e “cattivi” in una corsa agli armamenti tecnologici, con potenziali conseguenze dannose legate all’AI.

Un termine che ha riscosso particolare attenzione durante la conferenza è stato “AI agentica”, che si riferisce a sistemi AI che agiscono autonomamente per perseguire obiettivi senza costante supervisione umana. È difficile stabilire se questo concetto rappresenti una reale innovazione o semplicemente un marketing ripackaged.

Le lacune nella governance dell’AI

Spesso, i comitati di governance dell’AI sono troppo concentrati su questioni di privacy e sicurezza, trascurando considerazioni più ampie come la responsabilità legale e l’adeguata valutazione dei rischi. Di conseguenza, molte organizzazioni approvano strumenti AI senza valutazioni complete dei rischi, inclusi i rischi di proprietà intellettuale.

È fondamentale che i leader spostino l’attenzione dalla semplice operatività locale a una pianificazione dell’AI più strategica e orientata agli obiettivi organizzativi.

Le minacce interne in aumento

Le minacce interne sono una realtà consolidata nella sicurezza informatica, risalenti a prima della digitalizzazione. Recentemente, si è discusso di come alcune aziende tecnologiche siano state ingannate nell’assumere lavoratori IT remoti che in realtà sono operativi informatici nordcoreani. Questo sottolinea l’importanza di un allineamento più stretto tra i team HR, legali e di sicurezza per rilevare documenti di assunzione falsificati e mitigare le vulnerabilità delle piattaforme di assunzione.

È evidente che vi è bisogno di conversazioni più frequenti riguardo a queste minacce emergenti, piuttosto che limitarsi a collaborare su requisiti di conformità e indagini reattive sugli incidenti.

La conferenza RSAC ha continuamente riflettuto lo stato attuale della sicurezza informatica, con tendenze e sfide significative emerse tra i vari eventi e discussioni.

In conclusione, è emerso un tema costante: la necessità di responsabilità proattiva, guida e governance. Questi elementi sono cruciali per ridurre l’impatto delle minacce interne e dell’AI, portando a un futuro in cui le organizzazioni possono affrontare in modo più efficace queste sfide.

More Insights

L’Utah guida la rivoluzione delle politiche sull’IA

Un legislatore dell'Utah è stato recentemente scelto per guidare un gruppo di lavoro nazionale per aiutare a orientare le politiche statali sull'intelligenza artificiale. Il rappresentante statale...

Nuove Regole per l’Intelligenza Artificiale in Texas

Il governatore del Texas ha firmato la legge sul governo responsabile dell'intelligenza artificiale del Texas (TRAIGA) il 22 giugno 2025, rendendo il Texas il secondo stato a introdurre una...

Nuove Regole dell’UE per l’Intelligenza Artificiale: Un Futuro Sicuro

L'Unione Europea ha implementato la propria legge sull'IA, rilasciando linee guida per garantire la conformità e bilanciare l'innovazione dell'IA con la sicurezza. Questa legge introduce categorie di...

Politiche internazionali per l’intelligenza artificiale: un nuovo orizzonte

Dall'inizio del 2025, la direzione strategica della politica sull'intelligenza artificiale (AI) si è drasticamente spostata, concentrandosi sulla capacità degli stati nazionali di "vincere la corsa...

Politiche internazionali per l’intelligenza artificiale: un nuovo orizzonte

Dall'inizio del 2025, la direzione strategica della politica sull'intelligenza artificiale (AI) si è drasticamente spostata, concentrandosi sulla capacità degli stati nazionali di "vincere la corsa...

Rischi di conformità nell’integrazione dell’intelligenza artificiale

L'intelligenza artificiale sta diventando una parte fondamentale delle funzioni di conformità aziendale, semplificando compiti come le revisioni automatiche dei contratti e il monitoraggio continuo...

Governanza dell’AI: il divario tra adozione e gestione

Secondo una nuova ricerca, il 93% delle aziende nel Regno Unito utilizza l'IA in qualche modo, ma la maggior parte manca di quadri per gestire i rischi. Solo il sette percento ha implementato...

Governanza dei Dati nell’Atto AI dell’UE: Fondamenti e Implicazioni

La legge sull'intelligenza artificiale dell'Unione Europea (EU AI Act) propone un quadro per regolare l'IA, in particolare per i sistemi "ad alto rischio". L'articolo 10 si concentra sui dati e sulla...

Codice di Pratica GPAI: Nuove Regole per l’Intelligenza Artificiale in Europa

La Commissione Europea ha pubblicato un Codice di Pratica volontario per aiutare l'industria a conformarsi agli obblighi della legge sull'IA riguardo alla sicurezza, trasparenza e copyright per i...