Categoria: Conformità Regolatoria

Regole sull’IA dell’UE: Rischi, Sanzioni e Influenza Globale

L’Unione Europea sta introducendo nuove normative sull’intelligenza artificiale con l’AI Act, che classifica i sistemi di IA in base al loro potenziale danno. Le applicazioni ad alto rischio, come quelle nel reclutamento o nella diagnostica medica, devono rispettare requisiti rigorosi di governance dei dati e supervisione umana.

Read More »

Governare l’AI per un futuro sostenibile in Africa

L’intelligenza artificiale (IA) non è più solo appannaggio delle economie avanzate; sta gradualmente plasmando i servizi finanziari, l’agricoltura, l’istruzione e persino il governo in Africa. La governance dell’IA è fondamentale per assicurare che l’innovazione possa potenziare i cittadini piuttosto che danneggiarli, richiedendo che le politiche organizzative siano allineate con standard globali riconosciuti.

Read More »

Strumento Petri: Auditing AI Sicuro e Automatizzato

Anthropic ha lanciato Petri, uno strumento open source per l’audit della sicurezza dell’IA, progettato per testare automaticamente i modelli di linguaggio di grandi dimensioni (LLM) per comportamenti rischiosi. Utilizzando agenti autonomi, Petri identifica tendenze come la disinformazione e il whistleblowing, offrendo un modo più collaborativo e standardizzato per la ricerca sulla sicurezza dell’IA.

Read More »

L’armonia tra il Regolamento UE sull’IA e il GDPR

L’IA è la parola d’ordine onnipresente nel settore legale e l’Atto sull’IA dell’UE è uno dei principali argomenti di interesse per molti professionisti legali. Questo articolo esplora le interazioni significative tra il nuovo Atto sull’IA e il Regolamento generale sulla protezione dei dati (GDPR).

Read More »

Compliance e innovazione nell’era dell’AI agentica

L’intelligenza artificiale agentica sta rivoluzionando il supporto clienti e la gestione dei flussi di lavoro, ma sta anche rivelando lacune nei processi di conformità al GDPR. Per affrontare queste sfide, è necessario passare da controlli statici a meccanismi dinamici che garantiscano la conformità mentre il sistema è in esecuzione.

Read More »

Rischi legali dell’IA nelle risorse umane nel 2025

L’intelligenza artificiale (AI) è rapidamente diventata uno strumento pratico nel mondo delle risorse umane, utilizzato per redigere descrizioni di lavoro, esaminare i curriculum e condurre interviste video. Tuttavia, l’uso dell’AI comporta nuovi rischi legali, come le richieste di discriminazione e le questioni sulla privacy, rendendo essenziale per i datori di lavoro bilanciare efficienza e conformità.

Read More »

Governanza dell’IA e Sicurezza delle Informazioni: Distinzione e Collaborazione Essenziale

Questo articolo chiarisce le differenze tra la governance dell’IA e la sicurezza delle informazioni, evidenziando l’importanza di avere sia un veicolo sicuro che un conducente esperto. La governance dell’IA stabilisce le regole per un comportamento responsabile dell’IA, mentre la sicurezza delle informazioni protegge i dati e i sistemi sottostanti da minacce tecniche.

Read More »

Leggi e innovazione: la California affronta le sfide dell’AI e della sicurezza dei consumatori

La California sta attuando una serie di leggi sulla tecnologia, tra cui il “Transparency in Frontier Artificial Intelligence Act”, che richiede alle aziende di intelligenza artificiale di divulgare i potenziali danni e i protocolli di sicurezza. Inoltre, è stata approvata una legge che limita il volume delle pubblicità commerciali e una che facilita l’annullamento degli account sui social media.

Read More »

Governance e AI: le sfide del settore sanitario

I sistemi sanitari e le startup devono affrontare questioni difficili di governance e regolamentazione mentre implementano nuovi strumenti basati sull’intelligenza artificiale. Un recente webinar ha messo in evidenza che molte strutture sanitarie potrebbero avere l’esperienza per monitorare i modelli di apprendimento automatico, ma non dispongono ancora delle infrastrutture e delle capacità necessarie per farlo su larga scala.

Read More »

Rischio di Innovazione: Il Dilemma della Regolamentazione AI a New York

Il “Responsible AI Safety and Education Act” (RAISE Act) recentemente approvato dalla legislatura dello stato di New York cerca di affrontare i rischi fondamentali posti dai modelli AI avanzati. Tuttavia, imponendo obblighi esclusivamente agli sviluppatori di tali modelli, rischia di congelare l’innovazione senza migliorare significativamente la sicurezza.

Read More »