Intelligenza artificiale e dispositivi medici: sfide normative

AI come Dispositivo Medico – Quali sono le Considerazioni Regolatorie?

L’intelligenza artificiale (AI) sta rivoluzionando attualmente il settore sanitario, introducendo soluzioni innovative in diagnostica, trattamento e cura del paziente.

Tuttavia, l’integrazione rapida dell’AI nei dispositivi medici presenta importanti sfide regolatorie.

In Europa, il Regolamento AI dell’UE 2024/1689 e la Roadmap AI del Regno Unito per i Dispositivi Medici sono i principali quadri normativi che stanno plasmando il futuro dell’AI nella sanità.

Inoltre, lo standard IEC 62304 – “Software per Dispositivi Medici – Processi del Ciclo di Vita del Software”, gioca un ruolo cruciale nell’assicurare la sicurezza e l’affidabilità del software utilizzato nei dispositivi medici.

Il Regolamento AI dell’UE e i Dispositivi Medici

Il Regolamento AI è un quadro giuridico sull’Intelligenza Artificiale creato per lo sviluppo, il dispiegamento e l’uso dell’AI all’interno dell’Unione Europea (UE).

Esso fornisce certezza giuridica e garantisce la protezione dei diritti fondamentali. L’obiettivo del Regolamento AI è promuovere lo sviluppo e l’innovazione di un’AI sicura e affidabile, nonché l’adozione dell’AI, nei settori privato e pubblico dell’UE.

A chi si applica il Regolamento AI?

Il Regolamento AI si applica ai fornitori, ai distributori e agli operatori economici di AI all’interno dell’UE e attualmente fornendo servizi. Non si applica ai mercati del Regno Unito o degli Stati Uniti.

È essenziale verificare quali legislazioni o regole specifiche siano applicabili per ciascuna regione durante la pianificazione regolatoria.

Cosa significa questo per i Dispositivi Medici AI?

Definiamo prima l’AI. Essa è definita nell’Articolo 3 del Regolamento come segue:

“Sistema AI” significa un sistema basato su macchina progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo il dispiegamento, e che, per obiettivi espliciti o impliciti, inferisce, dagli input ricevuti, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

Tutti i dispositivi AI sono classificati in base ai loro livelli di rischio:

  • Rischio inaccettabile: Proibito. Esempi includono sistemi di scoring sociale e AI manipolativa.
  • AI ad alto rischio: Questa è la più regolamentata. Esempi includono biometria, infrastrutture critiche e dispositivi medici.
  • AI a rischio limitato: Soggetta a obblighi di trasparenza più leggeri. I sviluppatori e i distributori devono garantire che gli utenti finali siano a conoscenza del fatto che stanno interagendo con un’AI.
  • Rischio minimo: Non regolato. Esempi includono videogiochi abilitati all’AI e filtri antispam.

Collegando il Regolamento MDR dell’UE, il Regolamento AI dell’UE e IEC 62304

Il Regolamento AI è una legislazione orizzontale, il che significa che sarà utilizzata in aggiunta al Regolamento sui Dispositivi Medici dell’UE (MDR) 2017/745, e entrambe le normative dovranno essere considerate per i dispositivi medici che contengono una funzione AI.

Tutti i requisiti del MDR dell’UE dovranno ancora essere rispettati, ma anche i requisiti aggiuntivi del Regolamento AI dovranno essere considerati e implementati durante la pianificazione regolatoria.

Normative e AI come Dispositivo Medico nel Regno Unito

La Roadmap AI del Regno Unito per i Dispositivi Medici delinea la strategia del governo per promuovere l’innovazione garantendo la sicurezza del paziente.

Elementi chiave della roadmap includono:

  1. Sandbox Regolatori: Il Regno Unito prevede di stabilire sandbox regolatori per consentire ai sviluppatori di testare dispositivi medici basati su AI in un ambiente controllato.
  2. Innovazione Inclusiva: Riconoscere che il Software come Dispositivo Medico (SaMD) e l’AI come Dispositivo Medico (AIaMD) devono funzionare efficacemente per tutte le popolazioni.
  3. Approccio Regolatorio Adattivo: Creare un quadro normativo flessibile che possa adattarsi alla rapida evoluzione dell’AI.
  4. Collaborazione con l’Industria: Lavorare a stretto contatto con le parti interessate dell’industria per sviluppare linee guida e standard per l’AI nei dispositivi medici.

IEC 62304 e il Suo Ruolo nei Dispositivi Medici Basati su AI

Lo standard IEC 62304, intitolato “Software per Dispositivi Medici – Processi del Ciclo di Vita del Software”, è un quadro critico per garantire la sicurezza e l’affidabilità del software nei dispositivi medici.

Si applica a tutto il software utilizzato nei dispositivi medici, compresi i sistemi basati su AI.

È importante notare che l’IEC 62304 è in fase di aggiornamento, con una data di inizio approvazione prevista per il 22 maggio 2026 e una data di pubblicazione per il 12 agosto 2026.

Prepararsi per il Futuro

Il panorama normativo per l’AI nei dispositivi medici è ancora in evoluzione e occorre rimanere al passo con le nuove normative.

Ciò significa investire nell’apprendimento continuo per i propri team, tenersi aggiornati con gli standard emergenti e costruire sistemi agili che possano adattarsi ai nuovi requisiti.

Conclusione

Esiste un’opportunità e una responsabilità nel plasmare il futuro dell’AI nei dispositivi medici.

Prioritizzando pratiche etiche, collaborazione, innovazione e sicurezza del paziente, possiamo garantire che le tecnologie AI non solo avanzino la sanità, ma guadagnino anche la fiducia di chi ne ha bisogno.

More Insights

Regolamentazione dell’IA: verso un futuro più sicuro nel settore assicurativo

Il Chartered Insurance Institute (CII) ha richiesto chiari quadri di responsabilità e una strategia di competenze a livello settoriale per guidare l'uso dell'intelligenza artificiale (AI) nei servizi...

Regolamentazione dell’IA nel settore MedTech in APAC

La regolamentazione dell'intelligenza artificiale (AI) nella regione Asia-Pacifico è ancora agli inizi, principalmente governata da normative esistenti progettate per altre tecnologie. Nonostante ciò...

Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Nel primo semestre del 2025, New York ha iniziato a regolare l'intelligenza artificiale (AI) a livello statale con l'introduzione di leggi per affrontare la discriminazione algoritmica, in particolare...

Gestire i Rischi dell’Intelligenza Artificiale: Un Approccio Strategico

L'articolo discute l'importanza della gestione dei rischi nell'intelligenza artificiale, evidenziando che il rischio AI può derivare da dati errati o da attacchi esterni. Utilizzare un framework di...

Comprendere l’Atto sull’Intelligenza Artificiale dell’UE

L'Unione Europea ha introdotto l'Artificial Intelligence Act (AI Act), una regolamentazione storica progettata per gestire i rischi e le opportunità delle tecnologie AI in Europa. Questo articolo...

Legge Fondamentale sull’IA in Corea: Un Nuovo Orizzonte Normativo

La Corea del Sud ha adottato la Legge di Base sull'Intelligenza Artificiale, diventando il primo mercato asiatico a stabilire un quadro normativo completo per l'IA. Questa legislazione avrà un impatto...

Intelligenza Artificiale e Regolamentazione: Preparati al Cambiamento

L'atto sull'IA dell'UE e il DORA stanno creando una nuova complessità per le entità finanziarie, richiedendo un approccio basato sul rischio. È fondamentale quantificare l'impatto finanziario delle...

Regolamentare l’IA: Sfide e Opportunità nell’Atlantico

L'intelligenza artificiale (IA) è diventata una delle forze tecnologiche più decisive del nostro tempo, con il potere di rimodellare le economie e le società. Questo capitolo esplora il momento...

Strategia Europea per l’Intelligenza Artificiale: Verso le Gigafabbriche

La Commissione Europea vuole ridurre le barriere per l'implementazione dell'intelligenza artificiale, promuovendo la costruzione di "gigafabbriche AI" per migliorare l'infrastruttura dei centri dati...