Intelligenza artificiale e dispositivi medici: sfide normative

AI come Dispositivo Medico – Quali sono le Considerazioni Regolatorie?

L’intelligenza artificiale (AI) sta rivoluzionando attualmente il settore sanitario, introducendo soluzioni innovative in diagnostica, trattamento e cura del paziente.

Tuttavia, l’integrazione rapida dell’AI nei dispositivi medici presenta importanti sfide regolatorie.

In Europa, il Regolamento AI dell’UE 2024/1689 e la Roadmap AI del Regno Unito per i Dispositivi Medici sono i principali quadri normativi che stanno plasmando il futuro dell’AI nella sanità.

Inoltre, lo standard IEC 62304 – “Software per Dispositivi Medici – Processi del Ciclo di Vita del Software”, gioca un ruolo cruciale nell’assicurare la sicurezza e l’affidabilità del software utilizzato nei dispositivi medici.

Il Regolamento AI dell’UE e i Dispositivi Medici

Il Regolamento AI è un quadro giuridico sull’Intelligenza Artificiale creato per lo sviluppo, il dispiegamento e l’uso dell’AI all’interno dell’Unione Europea (UE).

Esso fornisce certezza giuridica e garantisce la protezione dei diritti fondamentali. L’obiettivo del Regolamento AI è promuovere lo sviluppo e l’innovazione di un’AI sicura e affidabile, nonché l’adozione dell’AI, nei settori privato e pubblico dell’UE.

A chi si applica il Regolamento AI?

Il Regolamento AI si applica ai fornitori, ai distributori e agli operatori economici di AI all’interno dell’UE e attualmente fornendo servizi. Non si applica ai mercati del Regno Unito o degli Stati Uniti.

È essenziale verificare quali legislazioni o regole specifiche siano applicabili per ciascuna regione durante la pianificazione regolatoria.

Cosa significa questo per i Dispositivi Medici AI?

Definiamo prima l’AI. Essa è definita nell’Articolo 3 del Regolamento come segue:

“Sistema AI” significa un sistema basato su macchina progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo il dispiegamento, e che, per obiettivi espliciti o impliciti, inferisce, dagli input ricevuti, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

Tutti i dispositivi AI sono classificati in base ai loro livelli di rischio:

  • Rischio inaccettabile: Proibito. Esempi includono sistemi di scoring sociale e AI manipolativa.
  • AI ad alto rischio: Questa è la più regolamentata. Esempi includono biometria, infrastrutture critiche e dispositivi medici.
  • AI a rischio limitato: Soggetta a obblighi di trasparenza più leggeri. I sviluppatori e i distributori devono garantire che gli utenti finali siano a conoscenza del fatto che stanno interagendo con un’AI.
  • Rischio minimo: Non regolato. Esempi includono videogiochi abilitati all’AI e filtri antispam.

Collegando il Regolamento MDR dell’UE, il Regolamento AI dell’UE e IEC 62304

Il Regolamento AI è una legislazione orizzontale, il che significa che sarà utilizzata in aggiunta al Regolamento sui Dispositivi Medici dell’UE (MDR) 2017/745, e entrambe le normative dovranno essere considerate per i dispositivi medici che contengono una funzione AI.

Tutti i requisiti del MDR dell’UE dovranno ancora essere rispettati, ma anche i requisiti aggiuntivi del Regolamento AI dovranno essere considerati e implementati durante la pianificazione regolatoria.

Normative e AI come Dispositivo Medico nel Regno Unito

La Roadmap AI del Regno Unito per i Dispositivi Medici delinea la strategia del governo per promuovere l’innovazione garantendo la sicurezza del paziente.

Elementi chiave della roadmap includono:

  1. Sandbox Regolatori: Il Regno Unito prevede di stabilire sandbox regolatori per consentire ai sviluppatori di testare dispositivi medici basati su AI in un ambiente controllato.
  2. Innovazione Inclusiva: Riconoscere che il Software come Dispositivo Medico (SaMD) e l’AI come Dispositivo Medico (AIaMD) devono funzionare efficacemente per tutte le popolazioni.
  3. Approccio Regolatorio Adattivo: Creare un quadro normativo flessibile che possa adattarsi alla rapida evoluzione dell’AI.
  4. Collaborazione con l’Industria: Lavorare a stretto contatto con le parti interessate dell’industria per sviluppare linee guida e standard per l’AI nei dispositivi medici.

IEC 62304 e il Suo Ruolo nei Dispositivi Medici Basati su AI

Lo standard IEC 62304, intitolato “Software per Dispositivi Medici – Processi del Ciclo di Vita del Software”, è un quadro critico per garantire la sicurezza e l’affidabilità del software nei dispositivi medici.

Si applica a tutto il software utilizzato nei dispositivi medici, compresi i sistemi basati su AI.

È importante notare che l’IEC 62304 è in fase di aggiornamento, con una data di inizio approvazione prevista per il 22 maggio 2026 e una data di pubblicazione per il 12 agosto 2026.

Prepararsi per il Futuro

Il panorama normativo per l’AI nei dispositivi medici è ancora in evoluzione e occorre rimanere al passo con le nuove normative.

Ciò significa investire nell’apprendimento continuo per i propri team, tenersi aggiornati con gli standard emergenti e costruire sistemi agili che possano adattarsi ai nuovi requisiti.

Conclusione

Esiste un’opportunità e una responsabilità nel plasmare il futuro dell’AI nei dispositivi medici.

Prioritizzando pratiche etiche, collaborazione, innovazione e sicurezza del paziente, possiamo garantire che le tecnologie AI non solo avanzino la sanità, ma guadagnino anche la fiducia di chi ne ha bisogno.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...