AI e Conformità: Come BSIMM16 Riplasma la Sicurezza delle Applicazioni

Black Duck Rilascia BSIMM16: Come l’AI e la Conformità Normativa Ridefiniscono i Processi di Sicurezza delle Applicazioni

Lo studio di sicurezza delle applicazioni più grande del settore mostra come le organizzazioni si stiano adattando al codice generato dall’AI, ai mandati governativi e ai metodi di formazione in evoluzione.

Il 4 febbraio 2026 è stata annunciata l’uscita della 16ª edizione del Building Security In Maturity Model (BSIMM), che rivela come le organizzazioni di tutto il mondo stiano trasformando le loro iniziative di sicurezza software per gestire i rischi introdotti dall’adozione dell’AI, dalle crescenti pressioni normative e dalla necessità di approcci formativi più agili.

Tendenze Chiave e Analisi

Per la prima volta nella storia del BSIMM, l’AI ha superato tutte le altre forze nel ridefinire le priorità di sicurezza. Lo studio comprende valutazioni di 111 organizzazioni in vari settori industriali, fornendo intuizioni senza precedenti sulle pratiche di sicurezza delle applicazioni che proteggono circa 91.200 applicazioni sviluppate da 223.700 sviluppatori.

Le Sfide dell’AI nella Sicurezza delle Applicazioni

L’AI è ora la principale sfida nella sicurezza delle applicazioni. Le organizzazioni stanno contemporaneamente proteggendo gli assistenti di codifica potenziati dall’AI e difendendosi contro attacchi abilitati dall’AI. Il BSIMM16 evidenzia tre importanti cambiamenti: un aumento del 10% nell’uso dell’intelligence sugli attacchi per monitorare le vulnerabilità emergenti dell’AI, un incremento del 12% nell’uso di metodi di classificazione dei rischi per determinare dove il codice generato da LLM è sicuro da implementare, e un aumento del 10% nell’applicazione di regole personalizzate agli strumenti di revisione del codice automatizzati per rilevare problemi unici del codice generato dall’AI.

Investimenti nella Sicurezza Accelerati dalle Normative Governative

Le normative globali stanno spingendo le organizzazioni a rafforzare la sicurezza delle applicazioni, con un forte focus sulla trasparenza della catena di fornitura software e sulla sicurezza degli ambienti di sviluppo. Quasi il 30% delle organizzazioni sta ora producendo SBOM (Software Bill of Materials) per soddisfare i requisiti di trasparenza. Il BSIMM16 riporta anche un aumento di oltre il 50% nella verifica automatizzata della sicurezza delle infrastrutture e oltre il 40% nella semplificazione della divulgazione responsabile delle vulnerabilità, guidato dal Cyber Resilience Act dell’UE e dalle crescenti richieste del governo degli Stati Uniti.

La Sicurezza della Catena di Fornitura Software in Crescita

Le organizzazioni stanno ampliando il loro focus oltre il codice sviluppato internamente per garantire la sicurezza dell’intero ecosistema della catena di fornitura software. Oltre al significativo aumento dell’adozione di SBOM per il software implementato, il BSIMM16 osserva un aumento di oltre il 40% nell’istituzione di stack tecnologici standardizzati.

Formazione sulla Sicurezza delle Applicazioni in Evoluzione

La formazione tradizionale di sicurezza sta subendo una grande trasformazione. I corsi di sicurezza di più giorni vengono sostituiti da apprendimento “just-in-time” e in piccoli pezzi che si adattano ai flussi di lavoro moderni e alle preferenze degli apprendenti. Il BSIMM16 riporta un aumento del 29% delle organizzazioni che forniscono competenze attraverso canali di collaborazione aperti, garantendo accesso immediato alle linee guida di sicurezza.

Conclusione

Il vero rischio del codice generato dall’AI non è una rottura ovvia, ma l’illusione di correttezza. Il codice che appare lucido e professionale può nascondere gravi difetti di sicurezza. L’aumento dell’adozione di SBOM è critico, poiché offre alle organizzazioni la trasparenza necessaria per comprendere esattamente cosa c’è nel loro software. Con l’espansione dei mandati normativi, le SBOM stanno diventando un’infrastruttura fondamentale per la gestione del rischio in un panorama di sviluppo guidato dall’AI.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...