AI e Sicurezza: Affrontare la Nuova Era delle Minacce

AI, Responsabilità e la Necessità di Un Risveglio nella Cybersecurity

Con l’emergere dell’intelligenza artificiale (AI) come catalizzatore per l’innovazione e la trasformazione operativa, le organizzazioni si trovano a dover affrontare una nuova realtà: l’AI sta rapidamente rimodellando il panorama delle minacce informatiche. Sebbene l’AI stia aiutando i CISO a migliorare la rilevazione e la risposta agli attacchi, porta anche a cyber attacchi sempre più sofisticati.

Le stesse tecnologie AI che generano intuizioni preziose possono anche essere utilizzate per creare identità false, campagne di phishing e malware.

Il Panorama delle Minacce in Espansione

L’AI ha cambiato radicalmente il panorama per i criminali informatici. Ora possono utilizzare modelli generativi per creare messaggi di phishing personalizzati, automatizzare la creazione di malware che può eludere i controlli di sicurezza e persino manipolare audio e video per impersonare dirigenti tramite deepfake. Queste tattiche non sono più limitate ad attori statali o gruppi di hacking elitari, poiché sono accessibili attraverso strumenti open-source e piattaforme AI-as-a-service.

Secondo una ricerca, il 44% delle organizzazioni cita la negligenza interna e la mancanza di consapevolezza sulla cybersecurity come le principali vulnerabilità. Questo dimostra che molte aziende non riescono a tenere il passo con la natura in evoluzione degli attacchi.

Linee di Responsabilità Offuscate

Uno dei risultati chiave del rapporto è la mancanza di chiarezza sulla responsabilità in materia di cybersecurity. Mentre il 53% dei CISO riporta direttamente ai CIO, il resto è disperso tra varie funzioni esecutive, inclusi COO, CFO e team legali. Questo indebolisce il processo decisionale e rende confuso sapere chi è realmente responsabile per i risultati di sicurezza.

Quando entra in gioco l’AI, il problema diventa ancora più acuto. Il 70% dei rispondenti europei ritiene che l’implementazione dell’AI debba essere una responsabilità condivisa, ma solo il 13% ha un team designato che si occupa di questa questione.

Il Ruolo dell’AI nel Rimodellare la Sicurezza

Se da un lato l’AI ha creato nuove minacce, dall’altro offre anche potenti capacità per aiutare le organizzazioni a proteggere le loro reti. La rilevazione delle minacce supportata dall’AI può analizzare grandi quantità di dati in tempo reale, ridurre i falsi positivi e identificare irregolarità comportamentali che potrebbero indicare una violazione.

Secondo la ricerca, il 93% delle organizzazioni intervistate considera prioritario l’uso dell’AI per la rilevazione e la risposta alle minacce.

Perché la Formazione dei Dipendenti è Ancora Fondamentale

In un mondo di strumenti AI avanzati, l’errore umano rimane la vulnerabilità più costante in materia di cybersecurity. Il phishing è ancora il principale vettore d’attacco per il 65% delle organizzazioni. Con l’uso dell’AI per creare strategie di ingegneria sociale più convincenti, il rischio di violazioni provocate dagli utenti aumenta.

Le organizzazioni devono vedere la formazione sulla cybersecurity come un processo continuo, non come un’attività di compliance una tantum. I dipendenti devono essere formati sulle minacce comuni e sui rischi alimentati dall’AI.

Costruire una Cultura di Responsabilità

La base di una strategia di cybersecurity non è la tecnologia, ma la chiarezza. Le organizzazioni devono definire chi è responsabile di cosa, stabilire strutture di governance e incoraggiare una cultura incentrata sulla sicurezza che attraversi tutte le aree.

È fondamentale potenziare il CISO o un ruolo equivalente con autorità e visibilità, formando consigli di rischio informatico trasversali che includano rappresentanti di IT, compliance, legale e unità aziendali.

Da Consapevolezza ad Azione

L’AI sta ridisegnando il panorama della cybersecurity. Gli attaccanti sono più veloci, scalabili e sempre più automatizzati. Le difese hanno strumenti potenti a disposizione, ma solo gli strumenti non bastano.

Le organizzazioni devono costruire processi di governance migliori, non solo algoritmi più potenti. Ciò include chiarire la responsabilità per i sistemi AI e includere l’AI nel mix della cybersecurity.

More Insights

Pronti per l’AI: Valutare l’Adattamento nel Settore Farmaceutico

L'intelligenza artificiale è destinata a trasformare ogni angolo dell'industria farmaceutica, dalla scoperta delle molecole alle sperimentazioni cliniche. È fondamentale che le organizzazioni...

L’intelligenza artificiale come co-pilota del governo

La UAE ha annunciato che un Sistema Nazionale di Intelligenza Artificiale diventerà un membro non votante di tutte le federazioni e delle aziende governative, iniziando il prossimo anno. Questa...

Codice di condotta per le aziende: prepararsi alle nuove regole sull’IA

Un codice di condotta progettato per aiutare le aziende a conformarsi alle norme sull'intelligenza artificiale dell'Unione Europea potrebbe entrare in vigore solo alla fine del 2025. La Commissione...

Crisi dell’Intelligenza Artificiale: Il Fallimento delle Aziende

L'intelligenza artificiale ha raggiunto un punto di svolta, ma la maggior parte delle iniziative AI non arriva mai alla produzione, esponendo le organizzazioni a rischi invisibili. Senza un'adeguata...

Periodo di grazia per la conformità all’AI Code

La commissione sta considerando di offrire un periodo di grazia alle aziende che firmano il codice di conformità sull'IA. Questa decisione potrebbe influenzare notevolmente le pratiche aziendali nel...

Texas e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Il 22 giugno 2025, il Texas è diventato l'ultimo stato ad approvare una legislazione completa sull'IA con il passaggio del Texas Responsible Artificial Intelligence Governance Act. Questa nuova legge...

Texas e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Il 22 giugno 2025, il Texas è diventato l'ultimo stato ad approvare una legislazione completa sull'IA con il passaggio del Texas Responsible Artificial Intelligence Governance Act. Questa nuova legge...

Leggi contro i deepfake in Europa: cosa sapere

La Danimarca ha deciso di concedere alle persone i diritti d'autore sulla propria immagine per combattere i video "deepfake". Altri paesi europei stanno adottando leggi simili per affrontare l'aumento...

Intelligenza Artificiale: Un Futuro Responsabile e Sostenibile

Il governo federale desidera potenziare la produttività lanciando l'intelligenza artificiale (IA) "su larga scala". Tuttavia, senza un'implementazione riflessiva e una leadership esperta in IA...