Intelligenza artificiale e dispositivi medici: sfide normative

AI come Dispositivo Medico – Quali sono le Considerazioni Regolatorie?

L’intelligenza artificiale (AI) sta rivoluzionando attualmente il settore sanitario, introducendo soluzioni innovative in diagnostica, trattamento e cura del paziente.

Tuttavia, l’integrazione rapida dell’AI nei dispositivi medici presenta importanti sfide regolatorie.

In Europa, il Regolamento AI dell’UE 2024/1689 e la Roadmap AI del Regno Unito per i Dispositivi Medici sono i principali quadri normativi che stanno plasmando il futuro dell’AI nella sanità.

Inoltre, lo standard IEC 62304 – “Software per Dispositivi Medici – Processi del Ciclo di Vita del Software”, gioca un ruolo cruciale nell’assicurare la sicurezza e l’affidabilità del software utilizzato nei dispositivi medici.

Il Regolamento AI dell’UE e i Dispositivi Medici

Il Regolamento AI è un quadro giuridico sull’Intelligenza Artificiale creato per lo sviluppo, il dispiegamento e l’uso dell’AI all’interno dell’Unione Europea (UE).

Esso fornisce certezza giuridica e garantisce la protezione dei diritti fondamentali. L’obiettivo del Regolamento AI è promuovere lo sviluppo e l’innovazione di un’AI sicura e affidabile, nonché l’adozione dell’AI, nei settori privato e pubblico dell’UE.

A chi si applica il Regolamento AI?

Il Regolamento AI si applica ai fornitori, ai distributori e agli operatori economici di AI all’interno dell’UE e attualmente fornendo servizi. Non si applica ai mercati del Regno Unito o degli Stati Uniti.

È essenziale verificare quali legislazioni o regole specifiche siano applicabili per ciascuna regione durante la pianificazione regolatoria.

Cosa significa questo per i Dispositivi Medici AI?

Definiamo prima l’AI. Essa è definita nell’Articolo 3 del Regolamento come segue:

“Sistema AI” significa un sistema basato su macchina progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo il dispiegamento, e che, per obiettivi espliciti o impliciti, inferisce, dagli input ricevuti, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

Tutti i dispositivi AI sono classificati in base ai loro livelli di rischio:

  • Rischio inaccettabile: Proibito. Esempi includono sistemi di scoring sociale e AI manipolativa.
  • AI ad alto rischio: Questa è la più regolamentata. Esempi includono biometria, infrastrutture critiche e dispositivi medici.
  • AI a rischio limitato: Soggetta a obblighi di trasparenza più leggeri. I sviluppatori e i distributori devono garantire che gli utenti finali siano a conoscenza del fatto che stanno interagendo con un’AI.
  • Rischio minimo: Non regolato. Esempi includono videogiochi abilitati all’AI e filtri antispam.

Collegando il Regolamento MDR dell’UE, il Regolamento AI dell’UE e IEC 62304

Il Regolamento AI è una legislazione orizzontale, il che significa che sarà utilizzata in aggiunta al Regolamento sui Dispositivi Medici dell’UE (MDR) 2017/745, e entrambe le normative dovranno essere considerate per i dispositivi medici che contengono una funzione AI.

Tutti i requisiti del MDR dell’UE dovranno ancora essere rispettati, ma anche i requisiti aggiuntivi del Regolamento AI dovranno essere considerati e implementati durante la pianificazione regolatoria.

Normative e AI come Dispositivo Medico nel Regno Unito

La Roadmap AI del Regno Unito per i Dispositivi Medici delinea la strategia del governo per promuovere l’innovazione garantendo la sicurezza del paziente.

Elementi chiave della roadmap includono:

  1. Sandbox Regolatori: Il Regno Unito prevede di stabilire sandbox regolatori per consentire ai sviluppatori di testare dispositivi medici basati su AI in un ambiente controllato.
  2. Innovazione Inclusiva: Riconoscere che il Software come Dispositivo Medico (SaMD) e l’AI come Dispositivo Medico (AIaMD) devono funzionare efficacemente per tutte le popolazioni.
  3. Approccio Regolatorio Adattivo: Creare un quadro normativo flessibile che possa adattarsi alla rapida evoluzione dell’AI.
  4. Collaborazione con l’Industria: Lavorare a stretto contatto con le parti interessate dell’industria per sviluppare linee guida e standard per l’AI nei dispositivi medici.

IEC 62304 e il Suo Ruolo nei Dispositivi Medici Basati su AI

Lo standard IEC 62304, intitolato “Software per Dispositivi Medici – Processi del Ciclo di Vita del Software”, è un quadro critico per garantire la sicurezza e l’affidabilità del software nei dispositivi medici.

Si applica a tutto il software utilizzato nei dispositivi medici, compresi i sistemi basati su AI.

È importante notare che l’IEC 62304 è in fase di aggiornamento, con una data di inizio approvazione prevista per il 22 maggio 2026 e una data di pubblicazione per il 12 agosto 2026.

Prepararsi per il Futuro

Il panorama normativo per l’AI nei dispositivi medici è ancora in evoluzione e occorre rimanere al passo con le nuove normative.

Ciò significa investire nell’apprendimento continuo per i propri team, tenersi aggiornati con gli standard emergenti e costruire sistemi agili che possano adattarsi ai nuovi requisiti.

Conclusione

Esiste un’opportunità e una responsabilità nel plasmare il futuro dell’AI nei dispositivi medici.

Prioritizzando pratiche etiche, collaborazione, innovazione e sicurezza del paziente, possiamo garantire che le tecnologie AI non solo avanzino la sanità, ma guadagnino anche la fiducia di chi ne ha bisogno.

More Insights

Stop alla regolamentazione dell’IA: la nuova minaccia per la sicurezza pubblica

Negli Stati Uniti, una disposizione sepolta nel progetto di bilancio del Congresso prevede un divieto di regolamentazione statale dell'IA per i prossimi dieci anni. Questa misura comprometterebbe la...

Congresso contro la regolamentazione dell’IA: un rischio per i diritti dei Californiani

I repubblicani della Camera vogliono vietare le normative statali sull'intelligenza artificiale per 10 anni, e i leader della California sono allarmati. Questa moratoria minaccia oltre 30 leggi che la...

Fiaschi AI e Identità Nazionale in Malesia

Recenti incidenti che coinvolgono rappresentazioni generate dall'IA della bandiera nazionale malese evidenziano la necessità di costruire capacità per instillare la alfabetizzazione sull'IA. Questi...

Intelligenza Artificiale Responsabile: Verso una Maggiore Fiducia

La rapida crescita dell'IA generativa e dei modelli di linguaggio di grandi dimensioni sta guidando l'adozione in diverse funzioni aziendali, con l'obiettivo di aumentare produttività, efficienza e...

AI Responsabile: Necessità Strategica per le Aziende

I principi filosofici e i dibattiti politici hanno dominato le discussioni sull'etica dell'IA, ma spesso non risuonano con i leader aziendali che guidano l'implementazione dell'IA. Dobbiamo ripensare...

Regole più semplici per l’AI in Europa

Il Regolamento generale sulla protezione dei dati (GDPR) complica l'uso necessario e desiderabile dei dati e dell'IA. Per le aziende coinvolte nello sviluppo e nell'uso di nuove soluzioni di IA è...

Fallimento della legislatura del Colorado nell’emendare la legge sull’intelligenza artificiale

Il legislatore del Colorado non è riuscito ad apportare modifiche all'Artificial Intelligence Act, la prima legge statale completa negli Stati Uniti che regola l'uso dell'intelligenza artificiale...

Intelligenza Artificiale: Trasformare il Reclutamento e le Assunzioni

L'uso dell'intelligenza artificiale (AI) sta trasformando il panorama del reclutamento, rendendo più efficienti processi come la selezione dei curriculum e l'interazione con i candidati. Tuttavia, le...

Finanziamenti in crisi per l’applicazione della legge sull’IA nell’UE

Un consulente politico dell'UE ha avvertito che molti Stati membri dell'UE sono in difficoltà finanziarie e mancano del personale esperto necessario per far rispettare efficacemente l'AI Act. Entro il...