Intelligenza Artificiale e Sicurezza: Rischi e Opportunità Emergenti

RSAC 2025: L’Intelligenza Artificiale, le lacune nella governance e le minacce interne

Quest’anno, l’Intelligenza Artificiale (AI) è stata un tema centrale della conferenza RSAC, ma non ci si aspettava che dominasse ogni conversazione. La conferenza ha registrato quasi 44.000 partecipanti, 730 relatori, 650 espositori e 400 membri dei media, dimostrando l’interesse crescente per l’AI nel campo della sicurezza informatica.

L’adozione dell’AI nella sicurezza informatica

Ci troviamo in una fase di transizione dall’implementazione di prove di concetto a un’adozione aggressiva dell’AI. Secondo la Cloud Security Alliance, il 90% delle organizzazioni sta attualmente adottando l’AI generativa per la sicurezza o pianifica di farlo. I professionisti IT e di sicurezza percepiscono queste tecnologie come un modo per migliorare le loro competenze e liberare tempo per compiti più gratificanti.

Tuttavia, i criminali informatici utilizzano anche queste innovazioni, con il rischio di malware potenziato dall’AI che rappresenta una delle principali minacce per i leader aziendali. Questa situazione crea una battaglia tra “buoni” e “cattivi” in una corsa agli armamenti tecnologici, con potenziali conseguenze dannose legate all’AI.

Un termine che ha riscosso particolare attenzione durante la conferenza è stato “AI agentica”, che si riferisce a sistemi AI che agiscono autonomamente per perseguire obiettivi senza costante supervisione umana. È difficile stabilire se questo concetto rappresenti una reale innovazione o semplicemente un marketing ripackaged.

Le lacune nella governance dell’AI

Spesso, i comitati di governance dell’AI sono troppo concentrati su questioni di privacy e sicurezza, trascurando considerazioni più ampie come la responsabilità legale e l’adeguata valutazione dei rischi. Di conseguenza, molte organizzazioni approvano strumenti AI senza valutazioni complete dei rischi, inclusi i rischi di proprietà intellettuale.

È fondamentale che i leader spostino l’attenzione dalla semplice operatività locale a una pianificazione dell’AI più strategica e orientata agli obiettivi organizzativi.

Le minacce interne in aumento

Le minacce interne sono una realtà consolidata nella sicurezza informatica, risalenti a prima della digitalizzazione. Recentemente, si è discusso di come alcune aziende tecnologiche siano state ingannate nell’assumere lavoratori IT remoti che in realtà sono operativi informatici nordcoreani. Questo sottolinea l’importanza di un allineamento più stretto tra i team HR, legali e di sicurezza per rilevare documenti di assunzione falsificati e mitigare le vulnerabilità delle piattaforme di assunzione.

È evidente che vi è bisogno di conversazioni più frequenti riguardo a queste minacce emergenti, piuttosto che limitarsi a collaborare su requisiti di conformità e indagini reattive sugli incidenti.

La conferenza RSAC ha continuamente riflettuto lo stato attuale della sicurezza informatica, con tendenze e sfide significative emerse tra i vari eventi e discussioni.

In conclusione, è emerso un tema costante: la necessità di responsabilità proattiva, guida e governance. Questi elementi sono cruciali per ridurre l’impatto delle minacce interne e dell’AI, portando a un futuro in cui le organizzazioni possono affrontare in modo più efficace queste sfide.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...