Categoria: Responsabilità dell’IA

Rischi di dati sensibili: l’ombra dell’AI nelle aziende

L’integrazione di GenAI nei flussi di lavoro quotidiani sfida direttamente le responsabilità dei Chief Human Resources Officers (CHRO) in materia di politiche e conformità. Un nuovo rapporto di Josys rivela che oltre un terzo dei professionisti australiani carica regolarmente dati aziendali sensibili su piattaforme AI non autorizzate, spesso senza alcun controllo formale.

Read More »

AI Responsabile: Trasformare Investimenti in Impatti Concreti

Le aziende che adottano un’Intelligenza Artificiale responsabile stanno ottenendo miglioramenti significativi in aree cruciali come la crescita dei ricavi e la soddisfazione dei dipendenti. Ignorare i rischi associati all’IA può comportare costi considerevoli, con perdite finanziarie medie superiori a 4,4 milioni di dollari per le aziende colpite.

Read More »

Mercato della gestione del rischio dei modelli AI: crescita esponenziale verso i 15 miliardi di dollari entro il 2033

Il mercato della gestione del rischio dei modelli AI è previsto raggiungere 15,03 miliardi di dollari entro il 2033, con una crescita del 12,52% dal 2026 al 2033. Questo aumento è alimentato dall’adozione diffusa dell’AI e del machine learning, insieme a requisiti normativi sempre più rigorosi per garantire la trasparenza e l’etica dei modelli AI.

Read More »

AI eccesso di dati: un rischio crescente

Un rapporto di Cyera ha concluso che l’adozione dell’IA supera la governance dei dati, la visibilità e i controlli. Il 66% dei rispondenti ha rilevato che l’IA accede a dati sensibili a cui non dovrebbe avere accesso.

Read More »

La crisi della governance dell’AI: rischio di contenuti fuorvianti

Circa un mese fa, sono emerse preoccupazioni riguardo a un rapporto prodotto da Deloitte per il governo australiano, che conteneva materiale non verificabile. Questo incidente mette in evidenza un problema crescente nell’uso dell’IA nei contesti professionali: la normalizzazione del “lavoro sloppato”, contenuto generato dalla macchina che appare credibile in superficie ma presenta errori sottostanti.

Read More »

Difendersi dalle minacce intelligenti: il futuro della cybersecurity

La cybersecurity si sta evolvendo con l’ascesa dell’IA generativa e dell’IA agentica, che stanno alterando il campo di battaglia tra difensori e attaccanti. Le organizzazioni devono ripensare le loro difese informatiche, utilizzando l’IA come moltiplicatore di forza per contrastare l’uso improprio dell’IA generativa e prepararsi all’emergere dell’IA agentica.

Read More »

Sicurezza LLM: Guida all’Intelligenza Artificiale Responsabile

La sicurezza dei modelli linguistici di grandi dimensioni (LLM) è fondamentale per garantire interazioni etiche e affidabili con la tecnologia. Questa guida esplora i concetti chiave della sicurezza degli LLM, inclusi i rischi critici e le misure di protezione necessarie per un’implementazione responsabile.

Read More »

Poppulo ottiene la prima certificazione ISO per l’IA responsabile

Poppulo è diventata la prima azienda nel settore a ottenere la certificazione ISO/IEC 42001:2023, il primo standard internazionale per i sistemi di gestione dell’intelligenza artificiale. Questa certificazione rappresenta un benchmark per la governance responsabile dell’IA, garantendo pratiche di gestione del rischio e responsabilità dopo un audit rigoroso.

Read More »