AI, Responsabilità e la Necessità di Un Risveglio nella Cybersecurity
Con l’emergere dell’intelligenza artificiale (AI) come catalizzatore per l’innovazione e la trasformazione operativa, le organizzazioni si trovano a dover affrontare una nuova realtà: l’AI sta rapidamente rimodellando il panorama delle minacce informatiche. Sebbene l’AI stia aiutando i CISO a migliorare la rilevazione e la risposta agli attacchi, porta anche a cyber attacchi sempre più sofisticati.
Le stesse tecnologie AI che generano intuizioni preziose possono anche essere utilizzate per creare identità false, campagne di phishing e malware.
Il Panorama delle Minacce in Espansione
L’AI ha cambiato radicalmente il panorama per i criminali informatici. Ora possono utilizzare modelli generativi per creare messaggi di phishing personalizzati, automatizzare la creazione di malware che può eludere i controlli di sicurezza e persino manipolare audio e video per impersonare dirigenti tramite deepfake. Queste tattiche non sono più limitate ad attori statali o gruppi di hacking elitari, poiché sono accessibili attraverso strumenti open-source e piattaforme AI-as-a-service.
Secondo una ricerca, il 44% delle organizzazioni cita la negligenza interna e la mancanza di consapevolezza sulla cybersecurity come le principali vulnerabilità. Questo dimostra che molte aziende non riescono a tenere il passo con la natura in evoluzione degli attacchi.
Linee di Responsabilità Offuscate
Uno dei risultati chiave del rapporto è la mancanza di chiarezza sulla responsabilità in materia di cybersecurity. Mentre il 53% dei CISO riporta direttamente ai CIO, il resto è disperso tra varie funzioni esecutive, inclusi COO, CFO e team legali. Questo indebolisce il processo decisionale e rende confuso sapere chi è realmente responsabile per i risultati di sicurezza.
Quando entra in gioco l’AI, il problema diventa ancora più acuto. Il 70% dei rispondenti europei ritiene che l’implementazione dell’AI debba essere una responsabilità condivisa, ma solo il 13% ha un team designato che si occupa di questa questione.
Il Ruolo dell’AI nel Rimodellare la Sicurezza
Se da un lato l’AI ha creato nuove minacce, dall’altro offre anche potenti capacità per aiutare le organizzazioni a proteggere le loro reti. La rilevazione delle minacce supportata dall’AI può analizzare grandi quantità di dati in tempo reale, ridurre i falsi positivi e identificare irregolarità comportamentali che potrebbero indicare una violazione.
Secondo la ricerca, il 93% delle organizzazioni intervistate considera prioritario l’uso dell’AI per la rilevazione e la risposta alle minacce.
Perché la Formazione dei Dipendenti è Ancora Fondamentale
In un mondo di strumenti AI avanzati, l’errore umano rimane la vulnerabilità più costante in materia di cybersecurity. Il phishing è ancora il principale vettore d’attacco per il 65% delle organizzazioni. Con l’uso dell’AI per creare strategie di ingegneria sociale più convincenti, il rischio di violazioni provocate dagli utenti aumenta.
Le organizzazioni devono vedere la formazione sulla cybersecurity come un processo continuo, non come un’attività di compliance una tantum. I dipendenti devono essere formati sulle minacce comuni e sui rischi alimentati dall’AI.
Costruire una Cultura di Responsabilità
La base di una strategia di cybersecurity non è la tecnologia, ma la chiarezza. Le organizzazioni devono definire chi è responsabile di cosa, stabilire strutture di governance e incoraggiare una cultura incentrata sulla sicurezza che attraversi tutte le aree.
È fondamentale potenziare il CISO o un ruolo equivalente con autorità e visibilità, formando consigli di rischio informatico trasversali che includano rappresentanti di IT, compliance, legale e unità aziendali.
Da Consapevolezza ad Azione
L’AI sta ridisegnando il panorama della cybersecurity. Gli attaccanti sono più veloci, scalabili e sempre più automatizzati. Le difese hanno strumenti potenti a disposizione, ma solo gli strumenti non bastano.
Le organizzazioni devono costruire processi di governance migliori, non solo algoritmi più potenti. Ciò include chiarire la responsabilità per i sistemi AI e includere l’AI nel mix della cybersecurity.