AI Nascosta: Rischi e Opportunità nelle Aziende

IBM Affronta il Problema dell’AI Ombra: Un Punto Cieco per le Aziende

Con l’esplosione dell’uso dell’AI per costruire rapidamente applicazioni nel settore aziendale, IBM ha introdotto strumenti per aiutare le organizzazioni a gestire i sistemi e gli agenti AI di cui potrebbero non essere a conoscenza.

Recentemente, IBM ha lanciato quello che definisce il “primo software del settore per unificare la governance e la sicurezza agentica”, che integra watsonx.governance e Guardium AI Security per aiutare le aziende a mantenere i propri sistemi AI — inclusi gli agenti — sicuri e responsabili su larga scala.

La Sfida dell’AI Ombra

Simile al suo predecessore, l’IT ombra, l’AI ombra include l’uso di tecnologie non governate all’interno di un’organizzazione — in questo caso, sistemi AI. Questo rappresenta una crescente sfida poiché gli strumenti AI diventano più accessibili e i dipendenti possono ora costruire sistemi autonomi con una minima esperienza tecnica.

La Portata del Problema

Ricerche recenti mostrano che il 60% dei dipendenti utilizza strumenti AI non approvati più di quanto non facessero un anno fa, con il 93% che ammette di aver inserito informazioni in strumenti AI senza approvazione. Inoltre, il 32% dei dipendenti ha inserito dati riservati dei clienti in strumenti AI senza confermare l’approvazione dell’azienda.

Perché l’AI Ombra È Diversa

Gli agenti AI sono la nuova frontiera e consentono ai dipendenti di costruire sistemi in pochi giorni attraverso applicazioni aziendali come Salesforce o Workday. Questa accessibilità distingue l’AI ombra dall’IT ombra tradizionale, poiché gli agenti AI possono prendere decisioni e intraprendere azioni in modo indipendente.

Quando questi sistemi operano al di fuori dei quadri di governance, possono creare punti ciechi che possono avere conseguenze significative.

L’Impatto Aziendale

Le organizzazioni stanno subendo pressioni da più angolazioni. Il 85% dei decisori IT riporta che i dipendenti adottano strumenti AI più rapidamente di quanto i loro team IT possano valutarli. Le conseguenze sono reali e misurabili, con il 63% delle aziende che identificano la perdita di dati come il principale rischio dell’AI ombra.

La Sfida della Rilevazione

Identificare l’AI ombra richiede approcci nuovi. Gli strumenti di monitoraggio IT tradizionali non sono stati progettati per rilevare agenti AI che potrebbero essere incorporati in applicazioni aziendali o operare in ambienti cloud. IBM ha introdotto nuove capacità per Guardium AI Security, consentendo di rilevare nuovi casi d’uso AI.

Il Futuro dell’AI

La soluzione non è semplicemente vietare l’uso non autorizzato dell’AI. I dipendenti si rivolgono a questi strumenti per guadagni di produttività legittimi. La chiave è stabilire quadri di governance completi che possano scalare con l’adozione dell’AI.

Le organizzazioni devono passare da una rilevazione reattiva a una gestione proattiva, integrando strumenti AI approvati nei flussi di lavoro standard e stabilendo liste di strumenti approvati.

More Insights

Guida Pratica all’IA Responsabile per Sviluppatori .NET

L'era dell'intelligenza artificiale (IA) è ora, ma ci sono sfide da affrontare: possiamo fidarci dei sistemi IA? Questo articolo esplora i sei principi di Microsoft per costruire un'IA responsabile e...

Linee guida sull’AI dell’UE: chiarimenti sulle normative sul copyright

L'Ufficio dell'AI dell'UE ha pubblicato una bozza del Codice di Pratica che chiarisce le responsabilità relative al copyright per i fornitori di modelli di intelligenza artificiale a scopo generale...

Fiducia e Trasparenza nell’Era dell’Intelligenza Artificiale

L'intelligenza artificiale offre un valore straordinario per i marketer, ma solo se alimentata da dati di qualità raccolti in modo responsabile. Durante una sessione alla MarTech Conference di...

Il ruolo dell’AI nella gestione del rischio bancario

Nel complesso panorama delle operazioni bancarie di oggi, l'IA sta diventando il nuovo motore di gestione del rischio, fondamentale per le istituzioni finanziarie nel riconoscere le minacce e gestire...

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell'IA, focalizzata specificamente sui "modelli di frontiera" — i sistemi di...

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell'ambito della AI Act dell'UE e ha annunciato l'intenzione di istituire un Ufficio Nazionale per l'Intelligenza Artificiale. Questo ufficio agirà come...

Rischi e opportunità dell’AI nel reclutamento

L'uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non...

Quattro pilastri per un’IA responsabile

L'introduzione dell'IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie...

Intelligenza Artificiale Responsabile per i Mercati Emergenti

L'intelligenza artificiale sta trasformando il nostro mondo a una velocità sorprendente, ma i benefici non vengono raggiunti da tutti in modo equo. La soluzione è "Inclusion by Design", costruendo...