Categoria: Uncategorized

Rischi legali e di governance nell’adozione dell’IA

L’adozione crescente dell’intelligenza artificiale sta creando nuovi rischi di governance, cybersecurity e contenzioso per le aziende. I relatori hanno avvertito che le azioni legali potrebbero sorgere se le aziende esagerano le capacità delle tecnologie AI o non gestiscono adeguatamente i rischi associati.

Read More »

Costruire AI Autonome Affidabili: La Chiave è la Governance dei Dati

L’intelligenza artificiale agentica rappresenta un cambiamento fondamentale, passando da assistente a agente autonomo, capace di orchestrare processi complessi e adattarsi in tempo reale. Tuttavia, con l’autonomia arrivano rischi significativi, rendendo fondamentale una governance dei dati solida per garantire che questi sistemi agiscano in modo prevedibile ed etico.

Read More »

Solera e la Governance dell’Intelligenza Artificiale nella Salute Digitale

Solera Health ha creato una piattaforma digitale che abbina i membri dei piani sanitari a oltre 20 soluzioni sanitarie digitali curate. Durante un incontro con Healthcare Innovation, i dirigenti dell’azienda hanno discusso del modello di business e della crescita di Solera, nonché del suo approccio alla governance dell’IA nella rete di partner della salute digitale.

Read More »

Unificazione della Governance e del Modello Semantico per l’Intelligenza Artificiale

Insightsoftware ha lanciato Simba Intelligence, una serie di funzionalità progettate per consentire ai clienti di sviluppare applicazioni AI utilizzando dati affidabili, inclusi un layer semantico unificato con politiche di governance e sicurezza applicate automaticamente. Questo nuovo strumento mira a migliorare la qualità e la coerenza dei dati, rendendo gli output dell’AI più trasparenti e affidabili.

Read More »

Domanda Crescente per Sicurezza e Governance degli Agenti AI

Secondo un recente post su LinkedIn di Zenity, l’azienda sta promuovendo la seconda sessione della sua serie “Fondamenti della Sicurezza AI”, focalizzata sui rischi di sicurezza associati agli agenti AI. La sessione, guidata dall’esperta di sicurezza Kayla Underkoffler, si propone come una discussione pratica sulle lacune di governance e conformità concrete.

Read More »

La rottura di Anthropic con il Pentagono accende il dibattito sull’etica dell’IA

Dopo aver rifiutato le richieste del Pentagono legate a sistemi d’arma autonomi e sorveglianza, la posizione di Anthropic ha intensificato il dibattito sull’etica dell’IA, richiamando le recenti avvertenze del Vaticano. La startup di San Francisco, creatrice dell’assistente AI Claude, si è trovata in conflitto con il governo degli Stati Uniti, sollevando interrogativi etici e morali nello sviluppo dell’intelligenza artificiale.

Read More »

Governanza dell’IA per i Leader Aziendali: Uso Responsabile e Verifica

L’intelligenza artificiale è ormai parte integrante delle operazioni aziendali e può ridurre il lavoro noioso, ma se utilizzata in modo errato può causare problemi seri come la violazione della riservatezza e informazioni errate. È fondamentale stabilire regole interne chiare e una cultura di verifica per garantire un uso sicuro e responsabile dell’AI nelle aziende.

Read More »

Bandi ma Indispensabili: La Paradossale Utilizzo di Claude nell’Intelligence

Il 27 febbraio, Claude è stato vietato per l’uso federale a causa di preoccupazioni sulla catena di approvvigionamento, ma è stato comunque utilizzato in flussi di lavoro di intelligence durante gli attacchi in Iran. Questo evidenzia un crescente divario tra i principi etici dichiarati e le necessità operative, che sta diventando la norma piuttosto che l’eccezione.

Read More »

Governo e Sicurezza Tecnologica: La Battaglia per l’AI

Questo è il primo di alcuni post che esaminano il confronto tra il Pentagono e Anthropic e le sue implicazioni per la governance dell’IA. La disputa rappresenta un cambiamento qualitativo, in quanto per la prima volta il governo è passato dalla persuasione alla coercizione, minacciando una designazione di rischio per la catena di approvvigionamento.

Read More »

UNESCO e CENIA: Partnership per un’Intelligenza Artificiale Etica nell’Istruzione in America Latina

Alla fine di febbraio 2026, l’Ufficio Regionale dell’UNESCO a Santiago e il Centro Nazionale per l’Intelligenza Artificiale (CENIA) hanno firmato un accordo di cooperazione per promuovere l’uso dell’IA nei contesti educativi in Cile e in America Latina. Questo accordo mira a rafforzare le capacità e a garantire standard etici durante l’intero ciclo di vita dei sistemi di intelligenza artificiale.

Read More »