AI Nascosta: Rischi e Opportunità nelle Aziende

IBM Affronta il Problema dell’AI Ombra: Un Punto Cieco per le Aziende

Con l’esplosione dell’uso dell’AI per costruire rapidamente applicazioni nel settore aziendale, IBM ha introdotto strumenti per aiutare le organizzazioni a gestire i sistemi e gli agenti AI di cui potrebbero non essere a conoscenza.

Recentemente, IBM ha lanciato quello che definisce il “primo software del settore per unificare la governance e la sicurezza agentica”, che integra watsonx.governance e Guardium AI Security per aiutare le aziende a mantenere i propri sistemi AI — inclusi gli agenti — sicuri e responsabili su larga scala.

La Sfida dell’AI Ombra

Simile al suo predecessore, l’IT ombra, l’AI ombra include l’uso di tecnologie non governate all’interno di un’organizzazione — in questo caso, sistemi AI. Questo rappresenta una crescente sfida poiché gli strumenti AI diventano più accessibili e i dipendenti possono ora costruire sistemi autonomi con una minima esperienza tecnica.

La Portata del Problema

Ricerche recenti mostrano che il 60% dei dipendenti utilizza strumenti AI non approvati più di quanto non facessero un anno fa, con il 93% che ammette di aver inserito informazioni in strumenti AI senza approvazione. Inoltre, il 32% dei dipendenti ha inserito dati riservati dei clienti in strumenti AI senza confermare l’approvazione dell’azienda.

Perché l’AI Ombra È Diversa

Gli agenti AI sono la nuova frontiera e consentono ai dipendenti di costruire sistemi in pochi giorni attraverso applicazioni aziendali come Salesforce o Workday. Questa accessibilità distingue l’AI ombra dall’IT ombra tradizionale, poiché gli agenti AI possono prendere decisioni e intraprendere azioni in modo indipendente.

Quando questi sistemi operano al di fuori dei quadri di governance, possono creare punti ciechi che possono avere conseguenze significative.

L’Impatto Aziendale

Le organizzazioni stanno subendo pressioni da più angolazioni. Il 85% dei decisori IT riporta che i dipendenti adottano strumenti AI più rapidamente di quanto i loro team IT possano valutarli. Le conseguenze sono reali e misurabili, con il 63% delle aziende che identificano la perdita di dati come il principale rischio dell’AI ombra.

La Sfida della Rilevazione

Identificare l’AI ombra richiede approcci nuovi. Gli strumenti di monitoraggio IT tradizionali non sono stati progettati per rilevare agenti AI che potrebbero essere incorporati in applicazioni aziendali o operare in ambienti cloud. IBM ha introdotto nuove capacità per Guardium AI Security, consentendo di rilevare nuovi casi d’uso AI.

Il Futuro dell’AI

La soluzione non è semplicemente vietare l’uso non autorizzato dell’AI. I dipendenti si rivolgono a questi strumenti per guadagni di produttività legittimi. La chiave è stabilire quadri di governance completi che possano scalare con l’adozione dell’AI.

Le organizzazioni devono passare da una rilevazione reattiva a una gestione proattiva, integrando strumenti AI approvati nei flussi di lavoro standard e stabilendo liste di strumenti approvati.

More Insights

Gestire i Rischi nell’Intelligenza Artificiale: La Chiave per un Futuro Sicuro

L'Atto sull'Intelligenza Artificiale dell'Unione Europea stabilisce un quadro normativo per i sistemi di intelligenza artificiale ad alto rischio, con l'obiettivo di proteggere la salute, la sicurezza...

Strategie Regolatorie per l’Intelligenza Artificiale in Svizzera

La Strategia Nazionale per l'IA della Svizzera stabilisce linee guida per l'uso dell'IA e mira a finalizzare una proposta di regolamentazione nel 2025. Attualmente, l'IA in Svizzera è soggetta al...

Anticipare l’EU AI Act: Strategie Efficaci

Con l'avvento della legge sull'intelligenza artificiale dell'UE, le organizzazioni devono affrontare la sfida di classificare i sistemi di intelligenza artificiale in modo coerente e accurato. Questo...

Anticipare l’EU AI Act: Strategie Efficaci

Con l'avvento della legge sull'intelligenza artificiale dell'UE, le organizzazioni devono affrontare la sfida di classificare i sistemi di intelligenza artificiale in modo coerente e accurato. Questo...

Rischi Nascosti degli Agenti AI: Una Nuova Frontiera nella Governance

Dalen avverte che la velocità non dovrebbe compromettere la sicurezza o la responsabilità. Propone che le aziende abbiano strumenti in grado di scoprire automaticamente le applicazioni e gli agenti AI...

Conformità all’Atto sull’IA dell’UE: Cosa Sapere Prima del 2025

L'Atto sull'Intelligenza Artificiale dell'UE stabilisce il primo quadro giuridico completo per l'uso e lo sviluppo dell'IA, con obblighi di conformità che entreranno in vigore il 2 agosto 2025. Le...

Governare l’AI: Riflessioni sul futuro della responsabilità

Siamo saldamente entrati nell'era delle macchine intelligenti, dove l'intelligenza artificiale (IA) non è più solo un assistente operativo, ma un disruptor strategico. La crescente integrazione...

Nuovo Modello Texano per la Regolamentazione dell’IA

Il governatore del Texas, Greg Abbott, ha firmato il Texas Responsible Artificial Intelligence Governance Act (TRAIGA), diventando così il secondo stato a adottare una legge completa sulla governance...

L’Atto AI dell’UE: Un’opportunità per l’innovazione irlandese

Il Dott. Darryl Williams, fondatore della società di intelligenza artificiale cognitiva Partsol, afferma che la regolamentazione dell'AI dell'UE è un vantaggio e non un onere per l'innovazione in...