AI Act: È tempo per ospedali e fornitori di fare la propria parte
Il AI Act dell’Unione Europea è già parzialmente in vigore e gli ospedali e i fornitori hanno tempo fino ad agosto 2026 per conformarsi. Durante un simposio all’ECR 2025, esperti hanno discusso le implicazioni di questa legislazione.
Trasparenza e Regolamentazione
Il AI Act introduce requisiti normativi più severi e enormi potenziali sanzioni per la non conformità. I fornitori di AI devono ora fornire dati di utilizzo e prestazione disponibili pubblicamente, eliminando la possibilità di un “nascondino normativo”.
La maggior parte degli strumenti di AI esistenti è ora soggetta a rigorosi requisiti di conformità, con un’attenzione particolare agli sistemi di AI ad alto rischio. Ogni dipartimento di radiologia e ogni professionista coinvolto nell’implementazione di sistemi di AI è considerato un deployer e quindi ha specifici obblighi legali.
Gestione del Rischio e Monitoraggio Post-Mercato
I sistemi di gestione del rischio devono essere implementati per valutare l’affidabilità dell’AI e prevenire danni. È obbligatorio un monitoraggio continuo delle prestazioni dell’AI per prevenire bias o degradazione nel tempo. Inoltre, è richiesto che ci sia una documentazione chiara su come viene utilizzata l’AI e le sue limitazioni, con supervisione umana obbligatoria, specialmente per i sistemi autonomi coinvolti nelle decisioni critiche.
Educazione e Raccomandazioni
L’European Society of Radiology (ESR) ha delineato raccomandazioni chiave per aiutare gli ospedali e gli sviluppatori a navigare nel nuovo panorama dell’AI. È fondamentale integrare l’educazione sull’AI a tutti i livelli, dai curricula di radiologia e radiografia ai programmi di formazione ospedaliera. Anche i pazienti devono essere educati sull’uso dell’AI.
La documentazione dell’implementazione dell’AI deve includere sia come utilizzare l’AI che come non utilizzarla.
Sandbox Regolamentari e Sanzioni
Entro agosto 2026, gli AI “regulatory sandboxes” saranno obbligatori in ogni paese dell’Unione Europea, ma finora nessuno è stato istituito. Questi spazi consentono di testare e convalidare i sistemi di AI in ambienti controllati prima del rilascio sul mercato.
Il AI Act prevede sanzioni severe per le violazioni, con multe fino a 35 milioni di euro o il 7% del fatturato annuale. Tuttavia, i meccanismi di enforcement non saranno in atto fino ad agosto 2026, il che significa che le sanzioni non possono ancora essere imposte.
Tensioni Politiche e Innovazione
Il AI Act ha suscitato tensioni politiche, e alcune grandi aziende tecnologiche stanno ritirandosi dall’Europa a causa dell’incertezza normativa. Mentre la regolamentazione mira a prevenire danni alla popolazione, i sviluppatori sostengono che essa soffoca l’innovazione, portando a una battaglia geopolitica tra America ed Europa sulla regolamentazione dell’AI.
La Necessità di Riconsiderare l’Efficienza dell’AI
In una sessione successiva, si è sottolineato che l’AI deve dimostrare il suo vero impatto nel settore sanitario al di là dell’accuratezza tecnica. La maggior parte degli studi sull’AI si concentra sulle prestazioni tecniche e sull’accuratezza diagnostica, ma non dimostra se l’AI migliori effettivamente gli esiti per i pazienti.
Il “laboratory effect” indica che gli strumenti di AI spesso performano meglio negli studi rispetto agli ambienti ospedalieri reali. Per garantire l’efficacia nel mondo reale, è fondamentale un monitoraggio post-mercato, ma questo rimane sottosviluppato.