Giorno: Maggio 4, 2026

AI affidabile e resiliente: guida all’assicurazione

L’assicurazione AI aiuta le organizzazioni a costruire sistemi di intelligenza artificiale affidabili, controllabili e auditabili, riducendo rischi etici, normativi e operativi. Favorisce la fiducia, la conformità alle normative come l’EU AI Act e la resilienza a lungo termine delle soluzioni AI.

Read More »

Il CREATE AI Act: potenziare la ricerca nazionale sull’intelligenza artificiale

Il CREATE AI Act propone la creazione del National Artificial Intelligence Research Resource (NAIRR), un’iniziativa bipartisan per democratizzare l’accesso a strumenti, dati e risorse AI, rafforzando la leadership degli Stati Uniti nella ricerca e nella sicurezza nazionale. Il progetto mira a sostenere ricercatori, università e organizzazioni non profit, garantendo un uso responsabile ed etico dell’intelligenza artificiale.

Read More »

Ruoli e responsabilità dei dispositivi medici con IA sotto MDR e AIA

Il documento analizza come il MDR e l’AIA assegnino responsabilità ai produttori e ai fornitori di dispositivi medici con IA, evidenziando le differenze tra i ruoli di “utente” (MDR) e “deployer” (AIA). Inoltre, descrive l’impatto della proposta della Commissione europea del dicembre 2025, che prevede di far rientrare gli AIMD solo nel MDR, eliminando il doppio inquadramento normativo.

Read More »

Valutazione indipendente della governance AI di Vedder

Vedder ha scelto AIQA Global per una valutazione indipendente del suo programma di governance AI, adottando il metodo AIQ™ basato su 250 fattori. L’obiettivo è fornire una misurazione standardizzata e verificabile della qualità della governance AI dell’azienda.

Read More »

Proteggi i bambini: il GUARD Act vieta i chatbot AI

Il Comitato giudiziario del Senato ha approvato all’unanimità il GUARD Act di Senatore Hawley, una legge che vieta ai chatbot AI di fornire contenuti sessuali espliciti o di incitare i minori a farsi del male, imponendo sanzioni penali alle aziende responsabili. Inoltre, il provvedimento proibisce i compagni AI emotivi per i minori e richiede che tutti i chatbot dichiardino il loro stato non umano e non professionale.

Read More »

Rischi legali dell’IA nella selezione del personale

L’uso dell’IA nel processo di assunzione può aumentare l’efficienza, ma comporta rischi legali significativi se non sono presenti adeguate salvaguardie, come la trasparenza, la validazione e il monitoraggio dei bias. Le normative statali e locali richiedono la divulgazione, il consenso dei candidati e la revisione umana delle decisioni automatizzate per garantire la conformità.

Read More »

Trasparenza AI per i broadcaster televisivi

Il webinar “AI And Broadcast Compliance” esplorerà le nuove normative europee sull’intelligenza artificiale, evidenziando l’obbligo di trasparenza e spiegabilità per i broadcaster. Gli esperti forniranno linee guida pratiche per implementare la conformità e mantenere la fiducia del pubblico nell’era dei media AI.

Read More »

AI e contratti: rischi e soluzioni

Il documento evidenzia le principali sfide legali e di rischio associate all’uso dell’IA, come la proprietà intellettuale, la riservatezza dei dati e la necessità di indennizzi contrattuali. Suggerisce inoltre di allineare i contratti alle future normative e ai framework di gestione del rischio dell’IA, come quello di NIST o ISO/IEC 23894:2023.

Read More »