AI e Sicurezza: Affrontare la Nuova Era delle Minacce

AI, Responsabilità e la Necessità di Un Risveglio nella Cybersecurity

Con l’emergere dell’intelligenza artificiale (AI) come catalizzatore per l’innovazione e la trasformazione operativa, le organizzazioni si trovano a dover affrontare una nuova realtà: l’AI sta rapidamente rimodellando il panorama delle minacce informatiche. Sebbene l’AI stia aiutando i CISO a migliorare la rilevazione e la risposta agli attacchi, porta anche a cyber attacchi sempre più sofisticati.

Le stesse tecnologie AI che generano intuizioni preziose possono anche essere utilizzate per creare identità false, campagne di phishing e malware.

Il Panorama delle Minacce in Espansione

L’AI ha cambiato radicalmente il panorama per i criminali informatici. Ora possono utilizzare modelli generativi per creare messaggi di phishing personalizzati, automatizzare la creazione di malware che può eludere i controlli di sicurezza e persino manipolare audio e video per impersonare dirigenti tramite deepfake. Queste tattiche non sono più limitate ad attori statali o gruppi di hacking elitari, poiché sono accessibili attraverso strumenti open-source e piattaforme AI-as-a-service.

Secondo una ricerca, il 44% delle organizzazioni cita la negligenza interna e la mancanza di consapevolezza sulla cybersecurity come le principali vulnerabilità. Questo dimostra che molte aziende non riescono a tenere il passo con la natura in evoluzione degli attacchi.

Linee di Responsabilità Offuscate

Uno dei risultati chiave del rapporto è la mancanza di chiarezza sulla responsabilità in materia di cybersecurity. Mentre il 53% dei CISO riporta direttamente ai CIO, il resto è disperso tra varie funzioni esecutive, inclusi COO, CFO e team legali. Questo indebolisce il processo decisionale e rende confuso sapere chi è realmente responsabile per i risultati di sicurezza.

Quando entra in gioco l’AI, il problema diventa ancora più acuto. Il 70% dei rispondenti europei ritiene che l’implementazione dell’AI debba essere una responsabilità condivisa, ma solo il 13% ha un team designato che si occupa di questa questione.

Il Ruolo dell’AI nel Rimodellare la Sicurezza

Se da un lato l’AI ha creato nuove minacce, dall’altro offre anche potenti capacità per aiutare le organizzazioni a proteggere le loro reti. La rilevazione delle minacce supportata dall’AI può analizzare grandi quantità di dati in tempo reale, ridurre i falsi positivi e identificare irregolarità comportamentali che potrebbero indicare una violazione.

Secondo la ricerca, il 93% delle organizzazioni intervistate considera prioritario l’uso dell’AI per la rilevazione e la risposta alle minacce.

Perché la Formazione dei Dipendenti è Ancora Fondamentale

In un mondo di strumenti AI avanzati, l’errore umano rimane la vulnerabilità più costante in materia di cybersecurity. Il phishing è ancora il principale vettore d’attacco per il 65% delle organizzazioni. Con l’uso dell’AI per creare strategie di ingegneria sociale più convincenti, il rischio di violazioni provocate dagli utenti aumenta.

Le organizzazioni devono vedere la formazione sulla cybersecurity come un processo continuo, non come un’attività di compliance una tantum. I dipendenti devono essere formati sulle minacce comuni e sui rischi alimentati dall’AI.

Costruire una Cultura di Responsabilità

La base di una strategia di cybersecurity non è la tecnologia, ma la chiarezza. Le organizzazioni devono definire chi è responsabile di cosa, stabilire strutture di governance e incoraggiare una cultura incentrata sulla sicurezza che attraversi tutte le aree.

È fondamentale potenziare il CISO o un ruolo equivalente con autorità e visibilità, formando consigli di rischio informatico trasversali che includano rappresentanti di IT, compliance, legale e unità aziendali.

Da Consapevolezza ad Azione

L’AI sta ridisegnando il panorama della cybersecurity. Gli attaccanti sono più veloci, scalabili e sempre più automatizzati. Le difese hanno strumenti potenti a disposizione, ma solo gli strumenti non bastano.

Le organizzazioni devono costruire processi di governance migliori, non solo algoritmi più potenti. Ciò include chiarire la responsabilità per i sistemi AI e includere l’AI nel mix della cybersecurity.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...