Intelligenza artificiale e dispositivi medici: sfide normative

AI come Dispositivo Medico – Quali sono le Considerazioni Regolatorie?

L’intelligenza artificiale (AI) sta rivoluzionando attualmente il settore sanitario, introducendo soluzioni innovative in diagnostica, trattamento e cura del paziente.

Tuttavia, l’integrazione rapida dell’AI nei dispositivi medici presenta importanti sfide regolatorie.

In Europa, il Regolamento AI dell’UE 2024/1689 e la Roadmap AI del Regno Unito per i Dispositivi Medici sono i principali quadri normativi che stanno plasmando il futuro dell’AI nella sanità.

Inoltre, lo standard IEC 62304 – “Software per Dispositivi Medici – Processi del Ciclo di Vita del Software”, gioca un ruolo cruciale nell’assicurare la sicurezza e l’affidabilità del software utilizzato nei dispositivi medici.

Il Regolamento AI dell’UE e i Dispositivi Medici

Il Regolamento AI è un quadro giuridico sull’Intelligenza Artificiale creato per lo sviluppo, il dispiegamento e l’uso dell’AI all’interno dell’Unione Europea (UE).

Esso fornisce certezza giuridica e garantisce la protezione dei diritti fondamentali. L’obiettivo del Regolamento AI è promuovere lo sviluppo e l’innovazione di un’AI sicura e affidabile, nonché l’adozione dell’AI, nei settori privato e pubblico dell’UE.

A chi si applica il Regolamento AI?

Il Regolamento AI si applica ai fornitori, ai distributori e agli operatori economici di AI all’interno dell’UE e attualmente fornendo servizi. Non si applica ai mercati del Regno Unito o degli Stati Uniti.

È essenziale verificare quali legislazioni o regole specifiche siano applicabili per ciascuna regione durante la pianificazione regolatoria.

Cosa significa questo per i Dispositivi Medici AI?

Definiamo prima l’AI. Essa è definita nell’Articolo 3 del Regolamento come segue:

“Sistema AI” significa un sistema basato su macchina progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo il dispiegamento, e che, per obiettivi espliciti o impliciti, inferisce, dagli input ricevuti, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

Tutti i dispositivi AI sono classificati in base ai loro livelli di rischio:

  • Rischio inaccettabile: Proibito. Esempi includono sistemi di scoring sociale e AI manipolativa.
  • AI ad alto rischio: Questa è la più regolamentata. Esempi includono biometria, infrastrutture critiche e dispositivi medici.
  • AI a rischio limitato: Soggetta a obblighi di trasparenza più leggeri. I sviluppatori e i distributori devono garantire che gli utenti finali siano a conoscenza del fatto che stanno interagendo con un’AI.
  • Rischio minimo: Non regolato. Esempi includono videogiochi abilitati all’AI e filtri antispam.

Collegando il Regolamento MDR dell’UE, il Regolamento AI dell’UE e IEC 62304

Il Regolamento AI è una legislazione orizzontale, il che significa che sarà utilizzata in aggiunta al Regolamento sui Dispositivi Medici dell’UE (MDR) 2017/745, e entrambe le normative dovranno essere considerate per i dispositivi medici che contengono una funzione AI.

Tutti i requisiti del MDR dell’UE dovranno ancora essere rispettati, ma anche i requisiti aggiuntivi del Regolamento AI dovranno essere considerati e implementati durante la pianificazione regolatoria.

Normative e AI come Dispositivo Medico nel Regno Unito

La Roadmap AI del Regno Unito per i Dispositivi Medici delinea la strategia del governo per promuovere l’innovazione garantendo la sicurezza del paziente.

Elementi chiave della roadmap includono:

  1. Sandbox Regolatori: Il Regno Unito prevede di stabilire sandbox regolatori per consentire ai sviluppatori di testare dispositivi medici basati su AI in un ambiente controllato.
  2. Innovazione Inclusiva: Riconoscere che il Software come Dispositivo Medico (SaMD) e l’AI come Dispositivo Medico (AIaMD) devono funzionare efficacemente per tutte le popolazioni.
  3. Approccio Regolatorio Adattivo: Creare un quadro normativo flessibile che possa adattarsi alla rapida evoluzione dell’AI.
  4. Collaborazione con l’Industria: Lavorare a stretto contatto con le parti interessate dell’industria per sviluppare linee guida e standard per l’AI nei dispositivi medici.

IEC 62304 e il Suo Ruolo nei Dispositivi Medici Basati su AI

Lo standard IEC 62304, intitolato “Software per Dispositivi Medici – Processi del Ciclo di Vita del Software”, è un quadro critico per garantire la sicurezza e l’affidabilità del software nei dispositivi medici.

Si applica a tutto il software utilizzato nei dispositivi medici, compresi i sistemi basati su AI.

È importante notare che l’IEC 62304 è in fase di aggiornamento, con una data di inizio approvazione prevista per il 22 maggio 2026 e una data di pubblicazione per il 12 agosto 2026.

Prepararsi per il Futuro

Il panorama normativo per l’AI nei dispositivi medici è ancora in evoluzione e occorre rimanere al passo con le nuove normative.

Ciò significa investire nell’apprendimento continuo per i propri team, tenersi aggiornati con gli standard emergenti e costruire sistemi agili che possano adattarsi ai nuovi requisiti.

Conclusione

Esiste un’opportunità e una responsabilità nel plasmare il futuro dell’AI nei dispositivi medici.

Prioritizzando pratiche etiche, collaborazione, innovazione e sicurezza del paziente, possiamo garantire che le tecnologie AI non solo avanzino la sanità, ma guadagnino anche la fiducia di chi ne ha bisogno.

More Insights

Flussi AI Responsabili per la Ricerca UX

Questo articolo esplora come l'intelligenza artificiale può essere integrata in modo responsabile nei flussi di lavoro della ricerca UX, evidenziando i benefici e i rischi associati. L'AI può...

L’evoluzione dell’AI agentica nel settore bancario

L'AI agentica si riferisce a sistemi autonomi progettati per prendere decisioni e compiere azioni con input umano limitato, trasformando le operazioni bancarie e migliorando l'esperienza del cliente...

Compliance AI: Fondamento per un’infrastruttura crypto scalabile

L'industria delle criptovalute sta affrontando sfide normative complesse, rendendo necessarie piattaforme con sistemi di compliance basati su AI. Questi sistemi non solo migliorano la gestione del...

Governanza dell’IA in ASEAN: un percorso sfidante ma promettente

L'Associazione delle Nazioni del Sud-est Asiatico (ASEAN) sta adottando un approccio favorevole all'innovazione nell'intelligenza artificiale (IA) per avanzare verso un'economia digitale. Tuttavia...

Rischi e opportunità nell’era dell’AI: Un confronto tra l’UE e gli Stati Uniti

In un recente episodio del podcast "Regulating AI", la Dott.ssa Cari Miller ha discusso le complessità del Piano d'Azione sull'IA degli Stati Uniti, enfatizzando l'urgenza della regolamentazione nelle...

Rischi invisibili dell’IA nei luoghi di lavoro

L'adozione dell'IA nelle aziende sta cambiando radicalmente il modo di lavorare, ma molte organizzazioni non sono pronte a gestire i rischi associati. È fondamentale che le aziende stabiliscano...

Investire nella Sicurezza dell’IA: Una Nuova Era di Opportunità

La rivoluzione dell'intelligenza artificiale è qui e sta rimodellando industrie e vite quotidiane. Per gli investitori, questo non è solo un problema etico, ma un'opportunità d'oro per capitalizzare...

Il Ruolo dell’IA nella Polizia Moderna

Le agenzie di applicazione della legge (LEA) stanno utilizzando sempre più l'intelligenza artificiale (AI) per migliorare le loro funzioni, in particolare con capacità avanzate per il policing...

Kenya guida il cambiamento nella governance dell’IA alle Nazioni Unite

Il Kenya ha ottenuto una vittoria diplomatica importante dopo che tutti i 193 Stati membri delle Nazioni Unite hanno concordato all'unanimità di istituire due istituzioni fondamentali per governare...