Regolamentazione complessa degli strumenti AI nella salute

Nuovo Rapporto Svela la Complessa Regolamentazione degli Strumenti AI nel Settore Sanitario

Un nuovo rapporto esamina il panorama regolamentare complesso e spesso frammentato per gli strumenti AI nel settore sanitario che operano al di fuori della giurisdizione della FDA (Food and Drug Administration). Con l’aumento dell’uso dell’AI nella sanità—automatizzando compiti amministrativi, guidando decisioni cliniche e alimentando app per il benessere dei consumatori—questi strumenti operano all’interno di un mosaico di regole federali, leggi statali e standard di settore volontari.

Categorie di AI Sanitaria Non Regolate dalla FDA

Le categorie comuni di AI sanitaria che non sono tipicamente regolamentate dalla FDA includono:

  • AI Amministrativa: Strumenti che supportano funzioni non cliniche come l’automazione della prior authorization, la rilevazione di frodi nei pagamenti, la previsione delle necessità di personale o la gestione della programmazione degli appuntamenti.
  • Strumenti di Supporto Clinico e Gestione della Cura: AI integrata nei Electronic Health Record (EHR) che analizzano i dati dei pazienti per suggerire azioni di follow-up, come segnalare un paziente in ritardo per uno screening del cancro. Questi strumenti sono progettati per informare, non per sostituire, il giudizio di un clinico.
  • Strumenti di Benessere e Salute Digitale per i Consumatori: App e dispositivi rivolti ai pazienti focalizzati sul benessere generale, come i tracker di fitness, le app per la meditazione e i tracker del sonno.

Come la Legge Cures del XXI Secolo Influenza la Vigilanza sull’AI

La Legge Cures del XXI Secolo del 2016 ha avuto un ruolo cruciale nel definire l’autorità della FDA sui software sanitari. Ha chiarito che alcuni strumenti di supporto alle decisioni cliniche (CDS) sono esenti dalla classificazione come dispositivi medici se soddisfano quattro criteri specifici:

  1. Non analizzano immagini o segnali (come raggi X o battiti cardiaci).
  2. Utilizzano informazioni mediche esistenti dal record del paziente.
  3. Supportano, ma non sostituiscono, la decisione clinica finale.
  4. Le loro raccomandazioni possono essere esaminate e comprese in modo indipendente dal fornitore.

Se uno strumento non soddisfa anche uno di questi criteri, potrebbe essere considerato Software come Dispositivo Medico (SaMD) e rientrare sotto la sorveglianza della FDA. Questo crea una significativa “zona grigia” che può essere difficile da navigare per gli sviluppatori.

Vigilanza Federale e Statale

Per gli strumenti AI che non sono considerati dispositivi medici, la vigilanza è distribuita tra diversi enti federali e statali, creando sia flessibilità che potenziali lacune.

  • Office of the National Coordinator for Health IT (ONC): Se uno strumento AI è integrato in un EHR certificato, le regole dell’ONC richiedono agli sviluppatori di divulgare l’uso previsto dello strumento, la logica e gli input dei dati. Tuttavia, ciò si applica solo agli strumenti forniti dallo sviluppatore EHR, non alle app di terze parti o sviluppate internamente.
  • Office for Civil Rights (OCR): Qualsiasi strumento che gestisce Informazioni Sanitarie Protette (PHI) rientra sotto l’applicazione delle norme HIPAA da parte dell’OCR. L’OCR applica anche regole contro la discriminazione algoritmica nei programmi sanitari finanziati a livello federale.
  • Federal Trade Commission (FTC): La FTC può intraprendere azioni contro le aziende per affermazioni di marketing ingannevoli riguardo ai loro strumenti AI. Entra anche in gioco la Regola di Notifica delle Violazioni della Salute per app non coperte da HIPAA, che richiede loro di notificare agli utenti una violazione dei dati.
  • Centers for Medicare & Medicaid Services (CMS): Il CMS può influenzare l’adozione degli strumenti AI attraverso le sue politiche di rimborso e le Condizioni di Partecipazione per i fornitori.
  • Vigilanza a Livello Statale: Gli stati sono sempre più attivi nella regolamentazione dell’AI, portando a una varietà di approcci, da leggi sui rischi dell’AI complete come quella approvata in Colorado, a leggi di divulgazione e protezione dei consumatori mirate negli stati come Illinois e Utah. Alcuni stati stanno anche creando “sandbox regolatorie” per incoraggiare l’innovazione sotto salvaguardie definite.

Conclusione: Verso Quadri Più Definiti per Sostenere un’AI Responsabile

Il rapporto conclude che l’attuale paesaggio frammentato crea incertezza per gli sviluppatori, complica l’adozione da parte dei fornitori e lascia lacune nella protezione dei pazienti. Man mano che l’industria avanza, i politici e i leader del settore devono continuare a collaborare per sviluppare quadri chiari e standard condivisi per sostenere l’innovazione responsabile, garantire la fiducia dei pazienti e migliorare la qualità dell’assistenza.

“La rivoluzione dell’AI sanitaria è già in atto, trasformando il modo in cui viene fornita l’assistenza e sollevando nuove domande sulla regolamentazione. Mentre i politici e le agenzie lavorano per bilanciare l’innovazione responsabile con la protezione dei pazienti, una chiara visione dell’attuale paesaggio regolamentare è essenziale.”

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...