Nuovo Rapporto Svela la Complessa Regolamentazione degli Strumenti AI nel Settore Sanitario
Un nuovo rapporto esamina il panorama regolamentare complesso e spesso frammentato per gli strumenti AI nel settore sanitario che operano al di fuori della giurisdizione della FDA (Food and Drug Administration). Con l’aumento dell’uso dell’AI nella sanità—automatizzando compiti amministrativi, guidando decisioni cliniche e alimentando app per il benessere dei consumatori—questi strumenti operano all’interno di un mosaico di regole federali, leggi statali e standard di settore volontari.
Categorie di AI Sanitaria Non Regolate dalla FDA
Le categorie comuni di AI sanitaria che non sono tipicamente regolamentate dalla FDA includono:
- AI Amministrativa: Strumenti che supportano funzioni non cliniche come l’automazione della prior authorization, la rilevazione di frodi nei pagamenti, la previsione delle necessità di personale o la gestione della programmazione degli appuntamenti.
- Strumenti di Supporto Clinico e Gestione della Cura: AI integrata nei Electronic Health Record (EHR) che analizzano i dati dei pazienti per suggerire azioni di follow-up, come segnalare un paziente in ritardo per uno screening del cancro. Questi strumenti sono progettati per informare, non per sostituire, il giudizio di un clinico.
- Strumenti di Benessere e Salute Digitale per i Consumatori: App e dispositivi rivolti ai pazienti focalizzati sul benessere generale, come i tracker di fitness, le app per la meditazione e i tracker del sonno.
Come la Legge Cures del XXI Secolo Influenza la Vigilanza sull’AI
La Legge Cures del XXI Secolo del 2016 ha avuto un ruolo cruciale nel definire l’autorità della FDA sui software sanitari. Ha chiarito che alcuni strumenti di supporto alle decisioni cliniche (CDS) sono esenti dalla classificazione come dispositivi medici se soddisfano quattro criteri specifici:
- Non analizzano immagini o segnali (come raggi X o battiti cardiaci).
- Utilizzano informazioni mediche esistenti dal record del paziente.
- Supportano, ma non sostituiscono, la decisione clinica finale.
- Le loro raccomandazioni possono essere esaminate e comprese in modo indipendente dal fornitore.
Se uno strumento non soddisfa anche uno di questi criteri, potrebbe essere considerato Software come Dispositivo Medico (SaMD) e rientrare sotto la sorveglianza della FDA. Questo crea una significativa “zona grigia” che può essere difficile da navigare per gli sviluppatori.
Vigilanza Federale e Statale
Per gli strumenti AI che non sono considerati dispositivi medici, la vigilanza è distribuita tra diversi enti federali e statali, creando sia flessibilità che potenziali lacune.
- Office of the National Coordinator for Health IT (ONC): Se uno strumento AI è integrato in un EHR certificato, le regole dell’ONC richiedono agli sviluppatori di divulgare l’uso previsto dello strumento, la logica e gli input dei dati. Tuttavia, ciò si applica solo agli strumenti forniti dallo sviluppatore EHR, non alle app di terze parti o sviluppate internamente.
- Office for Civil Rights (OCR): Qualsiasi strumento che gestisce Informazioni Sanitarie Protette (PHI) rientra sotto l’applicazione delle norme HIPAA da parte dell’OCR. L’OCR applica anche regole contro la discriminazione algoritmica nei programmi sanitari finanziati a livello federale.
- Federal Trade Commission (FTC): La FTC può intraprendere azioni contro le aziende per affermazioni di marketing ingannevoli riguardo ai loro strumenti AI. Entra anche in gioco la Regola di Notifica delle Violazioni della Salute per app non coperte da HIPAA, che richiede loro di notificare agli utenti una violazione dei dati.
- Centers for Medicare & Medicaid Services (CMS): Il CMS può influenzare l’adozione degli strumenti AI attraverso le sue politiche di rimborso e le Condizioni di Partecipazione per i fornitori.
- Vigilanza a Livello Statale: Gli stati sono sempre più attivi nella regolamentazione dell’AI, portando a una varietà di approcci, da leggi sui rischi dell’AI complete come quella approvata in Colorado, a leggi di divulgazione e protezione dei consumatori mirate negli stati come Illinois e Utah. Alcuni stati stanno anche creando “sandbox regolatorie” per incoraggiare l’innovazione sotto salvaguardie definite.
Conclusione: Verso Quadri Più Definiti per Sostenere un’AI Responsabile
Il rapporto conclude che l’attuale paesaggio frammentato crea incertezza per gli sviluppatori, complica l’adozione da parte dei fornitori e lascia lacune nella protezione dei pazienti. Man mano che l’industria avanza, i politici e i leader del settore devono continuare a collaborare per sviluppare quadri chiari e standard condivisi per sostenere l’innovazione responsabile, garantire la fiducia dei pazienti e migliorare la qualità dell’assistenza.
“La rivoluzione dell’AI sanitaria è già in atto, trasformando il modo in cui viene fornita l’assistenza e sollevando nuove domande sulla regolamentazione. Mentre i politici e le agenzie lavorano per bilanciare l’innovazione responsabile con la protezione dei pazienti, una chiara visione dell’attuale paesaggio regolamentare è essenziale.”