Sicurezza e Governance AI: La Nuova Frontiera di IBM

IBM presenta un software unificato per la sicurezza e la governance dell’IA

IBM ha lanciato nuove capacità software che integrano la sicurezza e la governance dell’intelligenza artificiale, segnando quello che sostiene essere la prima soluzione unificata dell’industria per gestire i rischi dell’IA agentica.

Un’integrazione innovativa

Le nuove funzionalità combinano watsonx.governance, una piattaforma di governance dell’IA end-to-end, con Guardium AI Security, uno strumento progettato per proteggere i modelli di IA, i dati e l’uso. Questa soluzione integrata consente alle aziende di gestire i rischi di sicurezza e governance associati a diversi casi d’uso dell’IA, supportando la conformità con 12 normative, inclusi il Regolamento dell’IA dell’UE e l’ISO 42001.

Rilevanza per le aziende

Il direttore generale di IBM Data and AI, Ritika Gunnar, ha affermato: “Gli agenti di IA sono destinati a rivoluzionare la produttività aziendale, ma i benefici possono anche presentare sfide. Quando questi sistemi autonomi non sono adeguatamente governati o protetti, possono comportare conseguenze gravi.”

Grazie a una partnership con AllTrue.ai, Guardium AI Security ora rileva casi d’uso dell’IA in ambienti cloud, repository di codice e sistemi embedded, offrendo visibilità in ecosistemi di IA decentralizzati. I casi d’uso identificati possono avviare automaticamente flussi di lavoro di governance tramite watsonx.governance.

Funzionalità di sicurezza avanzate

Gli aggiornamenti recenti di Guardium AI Security includono il red teaming automatizzato per scoprire vulnerabilità e misconfigurazioni, oltre a politiche di sicurezza personalizzate per affrontare rischi come l’iniezione di codice e la perdita di dati. Queste funzionalità sono già disponibili, con l’integrazione completa prevista per la fine dell’anno.

Suja Viswesan, vicepresidente di IBM Security and Runtime Products, ha dichiarato: “Il futuro dell’IA dipende da quanto bene la proteggiamo oggi. Incorporare la sicurezza fin dall’inizio è essenziale per tutelare i dati, supportare gli obblighi di conformità e costruire fiducia duratura.”

Gestione del ciclo di vita degli agenti di IA

Watsonx.governance facilita ora la gestione del ciclo di vita degli agenti di IA, dalla sviluppo al deployment, con nodi di valutazione che monitorano metriche come la pertinenza delle risposte e la fedeltà al contesto per identificare problemi di prestazioni.

Prossime funzionalità

Le capacità future, previste per essere rilasciate entro il 27 giugno, includeranno valutazioni dei rischi di onboarding degli agenti, tracciabilità delle revisioni e un catalogo di strumenti agentici.

Gli Acceleratori di Conformità watsonx.governance, disponibili ora come componente aggiuntivo, forniscono normative e standard preimpostati, come il Regolamento dell’IA dell’UE, l’SR 11-7 della Federal Reserve degli Stati Uniti, la Legge Locale 144 di New York, l’ISO/IEC 42001 e il NIST AI RMF, consentendo agli utenti di allineare i casi d’uso dell’IA con i requisiti di conformità globali.

Nuove offerte di servizi di cybersicurezza

IBM Consulting Cybersecurity Services sta introducendo nuove offerte che combinano piattaforme come Guardium AI Security con competenze in IA per supportare le organizzazioni nella trasformazione sicura dell’IA. Questi servizi coprono la rilevazione delle vulnerabilità, le pratiche di secure-by-design e la guida normativa, costruendo sull’esperienza di IBM con clienti come Nationwide Building Society ed e&.

Per gli utenti di AWS, watsonx.governance è ora accessibile nei centri dati AWS in India, con capacità di monitoraggio dei modelli migliorate.

Conclusione

Secondo Jennifer Glenn, direttore della ricerca per la Sicurezza e la Fiducia di IDC, “Unificare la governance dell’IA con la sicurezza dell’IA fornisce alle organizzazioni il contesto necessario per trovare e dare priorità ai rischi, così come le informazioni per comunicare chiaramente le conseguenze di un’eventuale omissione.”

More Insights

Rafforzare la Sicurezza dell’IA: L’Allineamento Responsabile di phi-3

Il documento discute l'importanza della sicurezza nell'intelligenza artificiale attraverso il modello phi-3, sviluppato secondo i principi di AI responsabile di Microsoft. Viene evidenziato come il...

AI Sovrana: Il Futuro della Produzione Intelligente

Le nuvole AI sovrane offrono sia controllo che conformità, affrontando le crescenti preoccupazioni riguardo alla residenza dei dati e al rischio normativo. Per i fornitori di servizi gestiti, questa è...

Etica dell’IA: Progresso e Inclusività in Scozia

L'Allianza Scozzese per l'IA ha pubblicato il suo Rapporto di Impatto 2024/2025, evidenziando un anno di progressi nella promozione di un'intelligenza artificiale etica e inclusiva in Scozia. Il...

L’Urgenza del Regolamento sull’IA: Preparati al Cambiamento

L'annuncio della Commissione UE venerdì scorso che non ci sarà un ritardo nell'Atto sull'IA dell'UE ha suscitato reazioni contrastanti. È tempo di agire e ottenere alcuni fatti, poiché le scadenze di...

Affidabilità dei Modelli Linguistici nella Prospettiva della Legge AI dell’UE

Lo studio sistematico esamina la fiducia nei grandi modelli linguistici (LLM) alla luce del Regolamento sull'IA dell'UE, evidenziando le preoccupazioni relative all'affidabilità e ai principi di...

La pausa sull’AI Act dell’UE: opportunità o rischio?

Il 8 luglio 2025, la Commissione Europea ha ribadito il proprio impegno per rispettare il calendario dell'AI Act, nonostante le richieste di rinvio da parte di alcune aziende. Il Primo Ministro...

Controlli Trump sull’IA: Rischi e Opportunità nel Settore Tecnologico

L'amministrazione Trump si sta preparando a nuove restrizioni sulle esportazioni di chip AI verso Malesia e Thailandia, al fine di prevenire l'accesso della Cina a processori avanzati. Le nuove...

Governance AI: Fondamenti per un Futuro Etico

La governance dell'intelligenza artificiale e la governance dei dati sono diventate cruciali per garantire lo sviluppo di soluzioni AI affidabili ed etiche. Questi framework di governance sono...

LLMOps: Potenziare l’IA Responsabile con Python

In un panorama ipercompetitivo, non è sufficiente distribuire modelli di linguaggio di grandi dimensioni (LLM); è necessario un robusto framework LLMOps per garantire affidabilità e conformità...