Regolamentazione complessa degli strumenti AI nella salute

Nuovo Rapporto Svela la Complessa Regolamentazione degli Strumenti AI nel Settore Sanitario

Un nuovo rapporto esamina il panorama regolamentare complesso e spesso frammentato per gli strumenti AI nel settore sanitario che operano al di fuori della giurisdizione della FDA (Food and Drug Administration). Con l’aumento dell’uso dell’AI nella sanità—automatizzando compiti amministrativi, guidando decisioni cliniche e alimentando app per il benessere dei consumatori—questi strumenti operano all’interno di un mosaico di regole federali, leggi statali e standard di settore volontari.

Categorie di AI Sanitaria Non Regolate dalla FDA

Le categorie comuni di AI sanitaria che non sono tipicamente regolamentate dalla FDA includono:

  • AI Amministrativa: Strumenti che supportano funzioni non cliniche come l’automazione della prior authorization, la rilevazione di frodi nei pagamenti, la previsione delle necessità di personale o la gestione della programmazione degli appuntamenti.
  • Strumenti di Supporto Clinico e Gestione della Cura: AI integrata nei Electronic Health Record (EHR) che analizzano i dati dei pazienti per suggerire azioni di follow-up, come segnalare un paziente in ritardo per uno screening del cancro. Questi strumenti sono progettati per informare, non per sostituire, il giudizio di un clinico.
  • Strumenti di Benessere e Salute Digitale per i Consumatori: App e dispositivi rivolti ai pazienti focalizzati sul benessere generale, come i tracker di fitness, le app per la meditazione e i tracker del sonno.

Come la Legge Cures del XXI Secolo Influenza la Vigilanza sull’AI

La Legge Cures del XXI Secolo del 2016 ha avuto un ruolo cruciale nel definire l’autorità della FDA sui software sanitari. Ha chiarito che alcuni strumenti di supporto alle decisioni cliniche (CDS) sono esenti dalla classificazione come dispositivi medici se soddisfano quattro criteri specifici:

  1. Non analizzano immagini o segnali (come raggi X o battiti cardiaci).
  2. Utilizzano informazioni mediche esistenti dal record del paziente.
  3. Supportano, ma non sostituiscono, la decisione clinica finale.
  4. Le loro raccomandazioni possono essere esaminate e comprese in modo indipendente dal fornitore.

Se uno strumento non soddisfa anche uno di questi criteri, potrebbe essere considerato Software come Dispositivo Medico (SaMD) e rientrare sotto la sorveglianza della FDA. Questo crea una significativa “zona grigia” che può essere difficile da navigare per gli sviluppatori.

Vigilanza Federale e Statale

Per gli strumenti AI che non sono considerati dispositivi medici, la vigilanza è distribuita tra diversi enti federali e statali, creando sia flessibilità che potenziali lacune.

  • Office of the National Coordinator for Health IT (ONC): Se uno strumento AI è integrato in un EHR certificato, le regole dell’ONC richiedono agli sviluppatori di divulgare l’uso previsto dello strumento, la logica e gli input dei dati. Tuttavia, ciò si applica solo agli strumenti forniti dallo sviluppatore EHR, non alle app di terze parti o sviluppate internamente.
  • Office for Civil Rights (OCR): Qualsiasi strumento che gestisce Informazioni Sanitarie Protette (PHI) rientra sotto l’applicazione delle norme HIPAA da parte dell’OCR. L’OCR applica anche regole contro la discriminazione algoritmica nei programmi sanitari finanziati a livello federale.
  • Federal Trade Commission (FTC): La FTC può intraprendere azioni contro le aziende per affermazioni di marketing ingannevoli riguardo ai loro strumenti AI. Entra anche in gioco la Regola di Notifica delle Violazioni della Salute per app non coperte da HIPAA, che richiede loro di notificare agli utenti una violazione dei dati.
  • Centers for Medicare & Medicaid Services (CMS): Il CMS può influenzare l’adozione degli strumenti AI attraverso le sue politiche di rimborso e le Condizioni di Partecipazione per i fornitori.
  • Vigilanza a Livello Statale: Gli stati sono sempre più attivi nella regolamentazione dell’AI, portando a una varietà di approcci, da leggi sui rischi dell’AI complete come quella approvata in Colorado, a leggi di divulgazione e protezione dei consumatori mirate negli stati come Illinois e Utah. Alcuni stati stanno anche creando “sandbox regolatorie” per incoraggiare l’innovazione sotto salvaguardie definite.

Conclusione: Verso Quadri Più Definiti per Sostenere un’AI Responsabile

Il rapporto conclude che l’attuale paesaggio frammentato crea incertezza per gli sviluppatori, complica l’adozione da parte dei fornitori e lascia lacune nella protezione dei pazienti. Man mano che l’industria avanza, i politici e i leader del settore devono continuare a collaborare per sviluppare quadri chiari e standard condivisi per sostenere l’innovazione responsabile, garantire la fiducia dei pazienti e migliorare la qualità dell’assistenza.

“La rivoluzione dell’AI sanitaria è già in atto, trasformando il modo in cui viene fornita l’assistenza e sollevando nuove domande sulla regolamentazione. Mentre i politici e le agenzie lavorano per bilanciare l’innovazione responsabile con la protezione dei pazienti, una chiara visione dell’attuale paesaggio regolamentare è essenziale.”

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...