AI Act: È tempo per ospedali e fornitori di fare la propria parte

Il AI Act dell’Unione Europea è già parzialmente in vigore e gli ospedali e i fornitori hanno tempo fino ad agosto 2026 per conformarsi. Durante un simposio all’ECR 2025, esperti hanno discusso le implicazioni di questa legislazione.

Trasparenza e Regolamentazione

Il AI Act introduce requisiti normativi più severi e enormi potenziali sanzioni per la non conformità. I fornitori di AI devono ora fornire dati di utilizzo e prestazione disponibili pubblicamente, eliminando la possibilità di un “nascondino normativo”.

La maggior parte degli strumenti di AI esistenti è ora soggetta a rigorosi requisiti di conformità, con un’attenzione particolare agli sistemi di AI ad alto rischio. Ogni dipartimento di radiologia e ogni professionista coinvolto nell’implementazione di sistemi di AI è considerato un deployer e quindi ha specifici obblighi legali.

Gestione del Rischio e Monitoraggio Post-Mercato

I sistemi di gestione del rischio devono essere implementati per valutare l’affidabilità dell’AI e prevenire danni. È obbligatorio un monitoraggio continuo delle prestazioni dell’AI per prevenire bias o degradazione nel tempo. Inoltre, è richiesto che ci sia una documentazione chiara su come viene utilizzata l’AI e le sue limitazioni, con supervisione umana obbligatoria, specialmente per i sistemi autonomi coinvolti nelle decisioni critiche.

Educazione e Raccomandazioni

L’European Society of Radiology (ESR) ha delineato raccomandazioni chiave per aiutare gli ospedali e gli sviluppatori a navigare nel nuovo panorama dell’AI. È fondamentale integrare l’educazione sull’AI a tutti i livelli, dai curricula di radiologia e radiografia ai programmi di formazione ospedaliera. Anche i pazienti devono essere educati sull’uso dell’AI.

La documentazione dell’implementazione dell’AI deve includere sia come utilizzare l’AI che come non utilizzarla.

Sandbox Regolamentari e Sanzioni

Entro agosto 2026, gli AI “regulatory sandboxes” saranno obbligatori in ogni paese dell’Unione Europea, ma finora nessuno è stato istituito. Questi spazi consentono di testare e convalidare i sistemi di AI in ambienti controllati prima del rilascio sul mercato.

Il AI Act prevede sanzioni severe per le violazioni, con multe fino a 35 milioni di euro o il 7% del fatturato annuale. Tuttavia, i meccanismi di enforcement non saranno in atto fino ad agosto 2026, il che significa che le sanzioni non possono ancora essere imposte.

Tensioni Politiche e Innovazione

Il AI Act ha suscitato tensioni politiche, e alcune grandi aziende tecnologiche stanno ritirandosi dall’Europa a causa dell’incertezza normativa. Mentre la regolamentazione mira a prevenire danni alla popolazione, i sviluppatori sostengono che essa soffoca l’innovazione, portando a una battaglia geopolitica tra America ed Europa sulla regolamentazione dell’AI.

La Necessità di Riconsiderare l’Efficienza dell’AI

In una sessione successiva, si è sottolineato che l’AI deve dimostrare il suo vero impatto nel settore sanitario al di là dell’accuratezza tecnica. La maggior parte degli studi sull’AI si concentra sulle prestazioni tecniche e sull’accuratezza diagnostica, ma non dimostra se l’AI migliori effettivamente gli esiti per i pazienti.

Il “laboratory effect” indica che gli strumenti di AI spesso performano meglio negli studi rispetto agli ambienti ospedalieri reali. Per garantire l’efficacia nel mondo reale, è fondamentale un monitoraggio post-mercato, ma questo rimane sottosviluppato.

More Insights

Legge sull’Intelligenza Artificiale: Un Nuovo Orizzonte per l’Europa

Questo documento fornisce un riepilogo della legge sull'intelligenza artificiale dell'UE, evidenziando le categorie di rischio associate ai sistemi di IA. La legge stabilisce requisiti specifici per i...

Battaglia per la Trasparenza: L’AI Act e i Diritti dei Creatori

L'Unione Europea ha approvato una legge storica sull'IA che richiede alle aziende di informare il pubblico quando un contenuto è generato da IA. Tuttavia, la legge ha suscitato preoccupazioni tra i...

Il pericolo dell’AI-washing nel settore della nutrizione

L'AI-washing è una tattica di marketing ingannevole in cui le aziende esagerano il ruolo dell'AI nella promozione dei loro prodotti o servizi. I consumatori e i regolatori dovrebbero affrontare con...

Leggi e Intelligenza Artificiale: Nuove Frontiere di Regolamentazione

Il 12 luglio 2024, l'UE ha pubblicato ufficialmente il Regolamento (UE) 2024/1689, noto come legge sull'intelligenza artificiale (AI Act), che rappresenta il primo quadro giuridico completo per...

Guardrails AI: Sicurezza e Etica nel Futuro delle Imprese

L'assenza di un quadro normativo globale armonizzato significa che, mentre le aziende potrebbero soddisfare i requisiti di conformità in un paese, potrebbero violarli involontariamente in un altro...

Legge dell’Arkansas: Protezione delle Immagini e Voci AI

L'Arkansas ha adottato una legge per proteggere le immagini e le voci generate dall'IA, nota come HB1071, che richiede il consenso esplicito per l'uso commerciale di tali riproduzioni. Questa legge...

Giganti della tecnologia sfidano l’UE sull’AI Act

L'Atto sull'IA dell'UE è stato elogiato come il più completo insieme di normative sull'intelligenza artificiale nel mondo. Tuttavia, si tratta di principi generali senza dettagli per...

La battaglia per la regolamentazione dell’IA a Hartford

Durante un'udienza pubblica, il presidente dell'AFL-CIO del Connecticut ha sottolineato l'importanza di regolamentare l'intelligenza artificiale per proteggere i lavoratori e i consumatori. La...

Azioni per un’Intelligenza Artificiale Inclusiva

L'ultimo summit sull'IA di Parigi si è concluso con una "Dichiarazione sull'Intelligenza Artificiale Inclusiva e Sostenibile per le Persone e il Pianeta". Le priorità indicate mirano a ridurre i...