Difendersi dalle minacce intelligenti: il futuro della cybersecurity

Quando l’IA Ritorna il Colpo: Difendersi Contro la Prossima Ondata di Minacce Intelligenti

La cybersecurity si è tradizionalmente evoluta attraverso passi lenti e deliberati. Le organizzazioni hanno investito in firewall, protezione degli endpoint, Security Information and Event Management (SIEM) e framework di conformità per proteggere gli asset digitali. Per anni, la battaglia tra attaccanti e difensori è rimasta sostanzialmente simmetrica: sfruttare e patchare, violare e rispondere, adattarsi e controbattere. Tuttavia, l’IA e il machine learning (ML) stanno spostando questo equilibrio. Oggi, la rilevazione delle anomalie, l’analisi comportamentale e la valutazione in tempo reale delle minacce sono strumenti essenziali, accelerando sia la risposta che la resilienza.

Con l’ascesa dell’IA generativa (Gen AI) e con i rapidi progressi nell’IA agentica, il campo di gioco è permanentemente alterato. I principali modelli di linguaggio di grandi dimensioni (LLM) delle comunità sia proprietarie che open-source hanno portato il ragionamento contestuale, simile a quello umano, nella mainstream. In poco più di un anno, milioni—da sviluppatori e marketer a criminali informatici—hanno sfruttato la Gen AI. Questa democratizzazione dell’IA ha scatenato un dilemma a doppio uso: la stessa tecnologia che guida la produttività armando anche gli attaccanti informatici.

La Minaccia in Evoluzione: Dall’Abuso della Gen AI agli Agenti Maligni

Tra il 2022 e il 2023, i criminali informatici hanno iniziato a utilizzare la Gen AI per creare malware polimorfico, un codice che si modifica continuamente per eludere la rilevazione basata su firme. In quel periodo, è emerso un nuovo modello malevolo, WormGPT, sui forum degli hacker. Addestrato su repository di malware e progettato senza le salvaguardie etiche presenti negli LLM, WormGPT ha reso possibile campagne di phishing automatizzate e consapevoli del contesto.

I minacciatori utilizzano anche la Gen AI per impersonazioni. Un incidente notevole è avvenuto a Hong Kong, dove i truffatori hanno utilizzato la tecnologia dei deepfake per replicare la somiglianza e la voce del CFO di una società durante una videochiamata. La frode era così convincente che ha portato un dipendente finanziario a trasferire oltre 25 milioni di dollari ai truffatori.

Aggiungendo al rischio è l’uso interno della Gen AI all’interno delle aziende. Questo ha intensificato il problema della Shadow AI, che spesso porta a esposizioni di dati a causa dell’uso non autorizzato degli strumenti di Gen AI da parte dei dipendenti senza la conoscenza, l’approvazione o la supervisione esplicita dei team IT o di sicurezza dell’organizzazione.

Ripensare la Difesa Cyber: L’IA come Moltiplicatore di Forza

Queste sfide costringono le organizzazioni a ripensare non solo i propri strumenti, ma anche la propria filosofia di sicurezza. Le difese tradizionali e i modelli di rilevazione basati su firme sono inadeguati contro attacchi dinamici, contestuali e sempre più automatizzati. In questo ambiente, i team di sicurezza devono agire su più fronti.

Trasformare Gen AI e IA agentica in alleati della difesa informatica: I difensori devono abbracciare l’IA non solo come uno strumento di produttività, ma come un moltiplicatore di forza nella difesa informatica. Le principali piattaforme di sicurezza hanno integrato LLM per automatizzare l’analisi dei log, riassumere gli avvisi, ridurre i falsi positivi e dare priorità agli incidenti in base al rischio aziendale.

Proteggere il ciclo di vita dell’IA: Man mano che i sistemi di IA diventano parte integrante dei flussi di lavoro aziendali, la sicurezza deve essere incorporata dallo sviluppo al deployment e alle operazioni quotidiane. Le aziende che sviluppano copiloti interni o app AI rivolte ai clienti devono trattare questi modelli come infrastrutture sensibili.

Risposta Politica e Governance Globale dell’IA

In risposta al crescente riconoscimento dell’impatto sistemico dell’IA, i governi di tutto il mondo stanno passando da linee guida esplorative a mandati applicabili. Oltre 1.000 regolamenti legati all’IA sono stati promulgati in 69 paesi, con gli Stati Uniti che hanno introdotto 59 nel 2024—un aumento di 2,5 volte rispetto al 2023.

Verso una Cultura Cyber-Aware e Nativa dell’IA

La transizione più importante non è solo tecnologica, ma culturale. I team di sicurezza devono smettere di vedere l’IA come un problema esterno da difendere e iniziare a considerarla come una capacità interna da padroneggiare. Le organizzazioni più resilienti dal punto di vista cyber saranno quelle che costruiranno una solida governance interna dei modelli, abiliteranno la supervisione umana e formeranno il proprio personale su prompt engineering, ragionamento basato sui dati e convalida del comportamento degli agenti.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...