Difendersi dalle minacce intelligenti: il futuro della cybersecurity

Quando l’IA Ritorna il Colpo: Difendersi Contro la Prossima Ondata di Minacce Intelligenti

La cybersecurity si è tradizionalmente evoluta attraverso passi lenti e deliberati. Le organizzazioni hanno investito in firewall, protezione degli endpoint, Security Information and Event Management (SIEM) e framework di conformità per proteggere gli asset digitali. Per anni, la battaglia tra attaccanti e difensori è rimasta sostanzialmente simmetrica: sfruttare e patchare, violare e rispondere, adattarsi e controbattere. Tuttavia, l’IA e il machine learning (ML) stanno spostando questo equilibrio. Oggi, la rilevazione delle anomalie, l’analisi comportamentale e la valutazione in tempo reale delle minacce sono strumenti essenziali, accelerando sia la risposta che la resilienza.

Con l’ascesa dell’IA generativa (Gen AI) e con i rapidi progressi nell’IA agentica, il campo di gioco è permanentemente alterato. I principali modelli di linguaggio di grandi dimensioni (LLM) delle comunità sia proprietarie che open-source hanno portato il ragionamento contestuale, simile a quello umano, nella mainstream. In poco più di un anno, milioni—da sviluppatori e marketer a criminali informatici—hanno sfruttato la Gen AI. Questa democratizzazione dell’IA ha scatenato un dilemma a doppio uso: la stessa tecnologia che guida la produttività armando anche gli attaccanti informatici.

La Minaccia in Evoluzione: Dall’Abuso della Gen AI agli Agenti Maligni

Tra il 2022 e il 2023, i criminali informatici hanno iniziato a utilizzare la Gen AI per creare malware polimorfico, un codice che si modifica continuamente per eludere la rilevazione basata su firme. In quel periodo, è emerso un nuovo modello malevolo, WormGPT, sui forum degli hacker. Addestrato su repository di malware e progettato senza le salvaguardie etiche presenti negli LLM, WormGPT ha reso possibile campagne di phishing automatizzate e consapevoli del contesto.

I minacciatori utilizzano anche la Gen AI per impersonazioni. Un incidente notevole è avvenuto a Hong Kong, dove i truffatori hanno utilizzato la tecnologia dei deepfake per replicare la somiglianza e la voce del CFO di una società durante una videochiamata. La frode era così convincente che ha portato un dipendente finanziario a trasferire oltre 25 milioni di dollari ai truffatori.

Aggiungendo al rischio è l’uso interno della Gen AI all’interno delle aziende. Questo ha intensificato il problema della Shadow AI, che spesso porta a esposizioni di dati a causa dell’uso non autorizzato degli strumenti di Gen AI da parte dei dipendenti senza la conoscenza, l’approvazione o la supervisione esplicita dei team IT o di sicurezza dell’organizzazione.

Ripensare la Difesa Cyber: L’IA come Moltiplicatore di Forza

Queste sfide costringono le organizzazioni a ripensare non solo i propri strumenti, ma anche la propria filosofia di sicurezza. Le difese tradizionali e i modelli di rilevazione basati su firme sono inadeguati contro attacchi dinamici, contestuali e sempre più automatizzati. In questo ambiente, i team di sicurezza devono agire su più fronti.

Trasformare Gen AI e IA agentica in alleati della difesa informatica: I difensori devono abbracciare l’IA non solo come uno strumento di produttività, ma come un moltiplicatore di forza nella difesa informatica. Le principali piattaforme di sicurezza hanno integrato LLM per automatizzare l’analisi dei log, riassumere gli avvisi, ridurre i falsi positivi e dare priorità agli incidenti in base al rischio aziendale.

Proteggere il ciclo di vita dell’IA: Man mano che i sistemi di IA diventano parte integrante dei flussi di lavoro aziendali, la sicurezza deve essere incorporata dallo sviluppo al deployment e alle operazioni quotidiane. Le aziende che sviluppano copiloti interni o app AI rivolte ai clienti devono trattare questi modelli come infrastrutture sensibili.

Risposta Politica e Governance Globale dell’IA

In risposta al crescente riconoscimento dell’impatto sistemico dell’IA, i governi di tutto il mondo stanno passando da linee guida esplorative a mandati applicabili. Oltre 1.000 regolamenti legati all’IA sono stati promulgati in 69 paesi, con gli Stati Uniti che hanno introdotto 59 nel 2024—un aumento di 2,5 volte rispetto al 2023.

Verso una Cultura Cyber-Aware e Nativa dell’IA

La transizione più importante non è solo tecnologica, ma culturale. I team di sicurezza devono smettere di vedere l’IA come un problema esterno da difendere e iniziare a considerarla come una capacità interna da padroneggiare. Le organizzazioni più resilienti dal punto di vista cyber saranno quelle che costruiranno una solida governance interna dei modelli, abiliteranno la supervisione umana e formeranno il proprio personale su prompt engineering, ragionamento basato sui dati e convalida del comportamento degli agenti.

More Insights

Collaborazione e Competizione nell’Intelligenza Artificiale

Il progetto Red Cell mira a sfidare le assunzioni e il pensiero di gruppo nel contesto delle politiche di sicurezza nazionale degli Stati Uniti. L'era dell'intelligenza artificiale sta rimodellando il...

La nuova politica dell’IA in Pakistan: un futuro di innovazione e opportunità

Il Pakistan ha introdotto una politica nazionale ambiziosa per l'intelligenza artificiale, mirata a costruire un mercato domestico dell'IA da 2,7 miliardi di dollari in cinque anni. La politica si...

Governare l’etica dell’IA per un futuro sostenibile

La governance etica dell'IA è ora una priorità strategica che richiede il coinvolgimento attivo dei dirigenti e una collaborazione trasversale per garantire che i principi etici siano integrati in...

Strategie AI per l’Istruzione Superiore

L'intelligenza artificiale sta trasformando l'istruzione superiore, migliorando le strategie didattiche e rafforzando la sicurezza fisica. Le istituzioni devono bilanciare sperimentazione ed...

Governare l’AI per un futuro sostenibile in Africa

L'intelligenza artificiale (IA) non è più solo appannaggio delle economie avanzate; sta gradualmente plasmando i servizi finanziari, l'agricoltura, l'istruzione e persino il governo in Africa. La...

Il Contraccolpo dell’Intelligenza Artificiale

La trasformazione economica dell'IA è iniziata, con aziende come IBM e Salesforce che hanno ridotto il personale grazie all'automazione. Tuttavia, l'adozione dell'IA solleverà questioni politiche...

Etica del lavoro digitale: responsabilità nell’era dell’IA

Il lavoro digitale sta diventando sempre più comune, ma sono state implementate poche regole ampiamente accettate per governarlo. La sfida principale per i leader è gestire l'implementazione e la...

Strumento Petri: Auditing AI Sicuro e Automatizzato

Anthropic ha lanciato Petri, uno strumento open source per l'audit della sicurezza dell'IA, progettato per testare automaticamente i modelli di linguaggio di grandi dimensioni (LLM) per comportamenti...

L’armonia tra il Regolamento UE sull’IA e il GDPR

L'IA è la parola d'ordine onnipresente nel settore legale e l'Atto sull'IA dell'UE è uno dei principali argomenti di interesse per molti professionisti legali. Questo articolo esplora le interazioni...