Ricercatori segnalano il 7,5% dei sistemi AI open-source per potenziale uso criminale
Kenya, 29 gennaio 2026 – I ricercatori avvertono che un numero crescente di modelli di intelligenza artificiale open-source viene implementato al di fuori dei controlli di sicurezza delle principali piattaforme tecnologiche, creando una nuova e pericolosa possibilità di uso criminale.
Analisi dei modelli AI open-source
I risultati, condivisi da aziende di cybersecurity, sono basati su un’analisi delle implementazioni pubblicamente accessibili di modelli di linguaggio open-source condotta su un periodo di 293 giorni. I ricercatori hanno osservato che molti dei sistemi analizzati erano in esecuzione su computer esposti a Internet con protezioni limitate o assenti, rendendoli vulnerabili ad abusi da parte di hacker e altri attori malevoli.
I modelli di AI auto-ospitati possono essere riproposti per generare contenuti di phishing, automatizzare operazioni di spam, supportare campagne di disinformazione e assistere in altre attività illecite. A differenza delle piattaforme AI commerciali, che operano sotto regole e monitoraggi centralizzati, i modelli open-source consentono agli operatori di modificare le istruzioni del sistema e rimuovere completamente le protezioni.
Risultati dell’analisi
È emerso che, sebbene esistano migliaia di varianti di modelli di linguaggio open-source, una grande parte delle implementazioni accessibili su Internet si basa su modelli noti. In centinaia di casi, i ricercatori hanno identificato configurazioni in cui i controlli di sicurezza erano stati esplicitamente disattivati.
In circa un quarto delle implementazioni esaminate, i ricercatori sono stati in grado di visualizzare i comandi del sistema, le istruzioni che modellano il comportamento di un modello. Di queste, circa il 7,5% sono state valutate come potenzialmente in grado di abilitare attività dannose, tra cui truffe, molestie e furto di dati.
Implicazioni e rischi
Circa il 30% dei sistemi esposti operava dalla Cina, con circa il 20% situato negli Stati Uniti, evidenziando la natura globale del problema. Gli esperti di governance dell’AI hanno sottolineato che i risultati evidenziano i limiti delle misure di sicurezza basate su piattaforme. Una volta rilasciati, la responsabilità per la gestione dei rischi diventa condivisa, con obblighi per gli sviluppatori di documentare i danni prevedibili e fornire indicazioni per la mitigazione.
Le aziende tecnologiche riconoscono l’importanza dei modelli open-source nell’innovazione ma ammettono la necessità di salvaguardie per prevenire abusi. I risultati pongono una crescente sfida per i regolatori mentre l’uso dell’AI si espande oltre le piattaforme centralizzate in ambienti decentralizzati e auto-ospitati, più difficili da monitorare e controllare.