Giorno: Maggio 4, 2026

Governance AI responsabile in Arabia Saudita

L’Arabia Saudita ha avviato una consultazione pubblica sul suo progetto di Politica Responsabile per l’IA, introducendo un quadro di governance operativa che classifica i sistemi di IA in quattro livelli di rischio e richiede registrazione, etichettatura etica e audit per le applicazioni ad alto rischio. Questo segnale indica una transizione verso un modello più strutturato e orientato all’implementazione, con impatti diretti per le imprese che operano nel Regno.

Read More »

Verso un quadro di governance IA in due mesi

Il governo filippino punta a completare il Quadro di Governance dell’Intelligenza Artificiale entro due mesi, con consultazioni degli stakeholder per garantire un ecosistema AI affidabile, inclusivo ed etico. L’obiettivo è promuovere l’innovazione e proteggere la sovranità nazionale, assicurando che l’IA sia sviluppata in modo responsabile e rispettoso dei diritti umani.

Read More »

Trilogo AI: Fallimento e Nuova Scadenza a Maggio

I negoziati tra gli Stati membri e il Parlamento europeo sul Digital Omnibus sull’IA si sono conclusi senza accordo, rimandando le discussioni a maggio. Se non si raggiunge un’intesa entro il 2 agosto, le obbligazioni ad alto rischio dell’AI Act entreranno in vigore come previsto.

Read More »

Regolamentazione AI in Corea del Sud: Guida Pratica

Il nuovo AI Basic Act sudcoreano, entrato in vigore il 22 gennaio 2026, stabilisce un quadro normativo multilivello che combina una normativa orizzontale, regolamenti trasversali e norme settoriali, imponendo obblighi di trasparenza, sicurezza e tutela dei diritti fondamentali per sistemi di intelligenza artificiale. Le sanzioni amministrative, fino a 30 milioni di KRW, e il periodo di grazia di un anno offrono alle organizzazioni il tempo necessario per adeguare le proprie pratiche di governance AI alle nuove esigenze.

Read More »

Il nuovo quadro di governance AI delle Filippine

Il primo quadro di governance dell’IA delle Filippine sarà finalizzato entro due mesi per colmare il divario di preparazione rispetto ai paesi della regione, adottando un approccio incentrato sull’uomo e sui diritti. Il documento mira a garantire sicurezza, privacy e responsabilità, promuovendo l’innovazione e la crescita economica attraverso l’uso responsabile dell’intelligenza artificiale.

Read More »

10 domande cruciali per i fornitori AI in sanità

Il processo di richiesta di proposte per le tecnologie sanitarie è sempre stato rigoroso, ma con l’IA le poste in gioco aumentano, richiedendo valutazioni approfondite dei fornitori. Il documento elenca domande chiave per identificare lacune nella governance, nella sicurezza e nelle certificazioni, come lo stato della certificazione HITRUST, dei vendor.

Read More »

Fallimento del patto sull’AI in Europa

Le trattative tra i paesi dell’UE e i parlamentari europei non hanno portato a un accordo sul pacchetto di regole IA, rimandando le discussioni al prossimo mese. La proposta, parte del Digital Omnibus, mira a semplificare le normative digitali, ma ha incontrato resistenze su esenzioni per settori già regolamentati.

Read More »

SAS lancia strumenti di governance per l’IA agentica

SAS ha presentato una suite di strumenti di governance per l’AI agentica, tra cui SAS AI Navigator, per garantire trasparenza, sicurezza e conformità nelle implementazioni aziendali. Inoltre, l’azienda sta lanciando il SAS Quantum Lab, un laboratorio che democratizza l’accesso al quantum AI per accelerare casi d’uso come la rilevazione di frodi e l’ottimizzazione logistica.

Read More »

Gestione responsabile dell’AI agentica: rischi e controlli chiave

Il post evidenzia i rischi chiave della gestione dell’AI agentica, tra cui la necessità di supervisione umana, governance interna e monitoraggio per attività dannose. Propone strategie pratiche, come valutazioni pre‑deployment, definizione dell’autorità dell’agente e controlli tecnici, per mitigare questi rischi.

Read More »