Intelligenza artificiale e dispositivi medici: sfide normative

AI come Dispositivo Medico – Quali sono le Considerazioni Regolatorie?

L’intelligenza artificiale (AI) sta rivoluzionando attualmente il settore sanitario, introducendo soluzioni innovative in diagnostica, trattamento e cura del paziente.

Tuttavia, l’integrazione rapida dell’AI nei dispositivi medici presenta importanti sfide regolatorie.

In Europa, il Regolamento AI dell’UE 2024/1689 e la Roadmap AI del Regno Unito per i Dispositivi Medici sono i principali quadri normativi che stanno plasmando il futuro dell’AI nella sanità.

Inoltre, lo standard IEC 62304 – “Software per Dispositivi Medici – Processi del Ciclo di Vita del Software”, gioca un ruolo cruciale nell’assicurare la sicurezza e l’affidabilità del software utilizzato nei dispositivi medici.

Il Regolamento AI dell’UE e i Dispositivi Medici

Il Regolamento AI è un quadro giuridico sull’Intelligenza Artificiale creato per lo sviluppo, il dispiegamento e l’uso dell’AI all’interno dell’Unione Europea (UE).

Esso fornisce certezza giuridica e garantisce la protezione dei diritti fondamentali. L’obiettivo del Regolamento AI è promuovere lo sviluppo e l’innovazione di un’AI sicura e affidabile, nonché l’adozione dell’AI, nei settori privato e pubblico dell’UE.

A chi si applica il Regolamento AI?

Il Regolamento AI si applica ai fornitori, ai distributori e agli operatori economici di AI all’interno dell’UE e attualmente fornendo servizi. Non si applica ai mercati del Regno Unito o degli Stati Uniti.

È essenziale verificare quali legislazioni o regole specifiche siano applicabili per ciascuna regione durante la pianificazione regolatoria.

Cosa significa questo per i Dispositivi Medici AI?

Definiamo prima l’AI. Essa è definita nell’Articolo 3 del Regolamento come segue:

“Sistema AI” significa un sistema basato su macchina progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo il dispiegamento, e che, per obiettivi espliciti o impliciti, inferisce, dagli input ricevuti, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

Tutti i dispositivi AI sono classificati in base ai loro livelli di rischio:

  • Rischio inaccettabile: Proibito. Esempi includono sistemi di scoring sociale e AI manipolativa.
  • AI ad alto rischio: Questa è la più regolamentata. Esempi includono biometria, infrastrutture critiche e dispositivi medici.
  • AI a rischio limitato: Soggetta a obblighi di trasparenza più leggeri. I sviluppatori e i distributori devono garantire che gli utenti finali siano a conoscenza del fatto che stanno interagendo con un’AI.
  • Rischio minimo: Non regolato. Esempi includono videogiochi abilitati all’AI e filtri antispam.

Collegando il Regolamento MDR dell’UE, il Regolamento AI dell’UE e IEC 62304

Il Regolamento AI è una legislazione orizzontale, il che significa che sarà utilizzata in aggiunta al Regolamento sui Dispositivi Medici dell’UE (MDR) 2017/745, e entrambe le normative dovranno essere considerate per i dispositivi medici che contengono una funzione AI.

Tutti i requisiti del MDR dell’UE dovranno ancora essere rispettati, ma anche i requisiti aggiuntivi del Regolamento AI dovranno essere considerati e implementati durante la pianificazione regolatoria.

Normative e AI come Dispositivo Medico nel Regno Unito

La Roadmap AI del Regno Unito per i Dispositivi Medici delinea la strategia del governo per promuovere l’innovazione garantendo la sicurezza del paziente.

Elementi chiave della roadmap includono:

  1. Sandbox Regolatori: Il Regno Unito prevede di stabilire sandbox regolatori per consentire ai sviluppatori di testare dispositivi medici basati su AI in un ambiente controllato.
  2. Innovazione Inclusiva: Riconoscere che il Software come Dispositivo Medico (SaMD) e l’AI come Dispositivo Medico (AIaMD) devono funzionare efficacemente per tutte le popolazioni.
  3. Approccio Regolatorio Adattivo: Creare un quadro normativo flessibile che possa adattarsi alla rapida evoluzione dell’AI.
  4. Collaborazione con l’Industria: Lavorare a stretto contatto con le parti interessate dell’industria per sviluppare linee guida e standard per l’AI nei dispositivi medici.

IEC 62304 e il Suo Ruolo nei Dispositivi Medici Basati su AI

Lo standard IEC 62304, intitolato “Software per Dispositivi Medici – Processi del Ciclo di Vita del Software”, è un quadro critico per garantire la sicurezza e l’affidabilità del software nei dispositivi medici.

Si applica a tutto il software utilizzato nei dispositivi medici, compresi i sistemi basati su AI.

È importante notare che l’IEC 62304 è in fase di aggiornamento, con una data di inizio approvazione prevista per il 22 maggio 2026 e una data di pubblicazione per il 12 agosto 2026.

Prepararsi per il Futuro

Il panorama normativo per l’AI nei dispositivi medici è ancora in evoluzione e occorre rimanere al passo con le nuove normative.

Ciò significa investire nell’apprendimento continuo per i propri team, tenersi aggiornati con gli standard emergenti e costruire sistemi agili che possano adattarsi ai nuovi requisiti.

Conclusione

Esiste un’opportunità e una responsabilità nel plasmare il futuro dell’AI nei dispositivi medici.

Prioritizzando pratiche etiche, collaborazione, innovazione e sicurezza del paziente, possiamo garantire che le tecnologie AI non solo avanzino la sanità, ma guadagnino anche la fiducia di chi ne ha bisogno.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...