Regolamentazione delle sperimentazioni cliniche con intelligenza artificiale

La regolamentazione delle sperimentazioni cliniche in cui viene utilizzata l’IA

Le aziende che sviluppano prodotti farmaceutici o biotecnologici utilizzando l’IA in qualsiasi fase delle loro sperimentazioni cliniche, sia nella progettazione della sperimentazione che nella sua gestione, nel reclutamento dei pazienti, nei dispositivi o nei IVD utilizzati nella sperimentazione, nella creazione e nell’uso di dati sintetici, o per l’analisi dei dati, devono tenere presente che le conseguenze di tali utilizzi saranno di certo di interesse per i regolatori, sia riguardo alla sperimentazione stessa che ai soggetti coinvolti, e agli output utilizzati nelle domande di autorizzazione. Sebbene il Regolamento IA non sia applicabile a determinati usi della ricerca, queste esclusioni offrono poco o nessun conforto per gli usi dell’IA nelle sperimentazioni cliniche, dove una miriade di regolamenti e linee guida potrebbe avere applicazione.

Dati, dati ovunque – quali possono essere utilizzati?

L’IA può essere uno strumento straordinario per ordinare e analizzare i dati clinici, e persino i pazienti. La costruzione delle sperimentazioni cliniche e la creazione e analisi dei dati risultanti sono tutte parti critiche dello sviluppo del prodotto, alimentando il processo di regolamentazione per l’autorizzazione dei prodotti farmaceutici e biotecnologici. Affinché i regolatori possano avere fiducia nelle sperimentazioni cliniche in cui viene utilizzata l’IA e nei dati risultanti, è necessario:

  • Una valutazione d’impatto regolatorio per valutare se l’uso dell’IA o del machine learning (ML) è a basso o alto rischio (nel contesto della sperimentazione e sull’impatto regolatorio o sui pazienti coinvolti, non la stessa valutazione di rischio prevista dal Regolamento IA). Esempi dell’EMA di usi ad alto rischio con i pazienti sono l’assegnazione dei pazienti per trattamenti o decisioni di dosaggio.
  • Trasparenza con i regolatori sull’uso dell’IA. I regolatori desiderano giudicare da soli se l’uso è appropriato e porta a conclusioni che potrebbero essere utilizzate per qualsiasi autorizzazione. Pertanto, nel suo documento di riflessione sull’uso dell’intelligenza artificiale nel ciclo di vita dei medicinali, l’EMA considera che l’uso dell’IA in una sperimentazione clinica con alto impatto regolatorio richiede una valutazione regolatoria completa, che richiede la divulgazione della struttura del modello completa (congelata prima della chiusura del database e della svelamento), dei log dallo sviluppo, validazione e test del modello, dei dati di addestramento e della descrizione del pipeline di elaborazione dei dati.
  • Conformità agli standard di dati come:
    • (i) ICH E6 GCP capitolo 3.16 sui dati e registrazioni e capitolo 4.3 sui sistemi computerizzati che trattano i principi di integrità dei dati, inclusi integrità fisica e coerenza), controllo qualità e convalida per garantire completezza, accuratezza e affidabilità dei dati clinici generati nella sperimentazione.
    • (ii) Progetto ICH E6(3), Allegato 2, pubblicato il 20 novembre 2024, che include principi GCP per aspetti specifici delle sperimentazioni cliniche rilevanti per l’uso dei modelli di IA, come la gestione dei dati del mondo reale relativi allo stato di salute dei pazienti raccolti da fonti al di fuori delle sperimentazioni cliniche.
    • (iii) ICH E9: principi statistici per le sperimentazioni cliniche – Passo 5.
  • Uso riflessivo dell’IA, ad esempio, quando si utilizzano modelli di linguaggio di grandi dimensioni (LLMs) per supportare compiti e processi nel sistema regolatorio dei medicinali, secondo i principi guida dell’EMA sull’uso dei modelli di linguaggio di grandi dimensioni nelle scienze regolatorie e per attività di regolazione dei medicinali. Queste linee guida includono consigli generali, applicabili a qualsiasi uso di LLM, come:
    • (i) Evitare l’input di dati personali sensibili o IP riservati in LLM che non sono localmente distribuiti o controllati.
    • (ii) Applicare pensiero critico agli output degli LLM, verificando la veridicità, l’affidabilità e l’equità prima di applicarli in qualsiasi documento regolatorio.

Le autorità regolatorie non vogliono che output non affidabili degli LLM siano utilizzati per completare la documentazione regolatoria. Presumiamo che la loro paura non dichiarata sia che tali usi possano essere sia errati che non ovvi per il regolatore.

Uso di dispositivi medici inclusi sistemi IA

Le sperimentazioni farmaceutiche e biotecnologiche potrebbero utilizzare dispositivi medici o dispositivi medici diagnostici in vitro, il che significa che deve essere rispettata un’altra legislazione oltre al Regolamento sulle Sperimentazioni Cliniche (UE) 536/2014. Qualsiasi uso di un dispositivo medico in una sperimentazione clinica farmaceutica/biotecnologica nell’UE/SEE è considerato ‘immissione sul mercato’ o ‘messa in servizio’. Quando il dispositivo non è ancora marcato CE, questo richiede, secondo la normativa applicabile (2017/745 (MDR) o 2017/746 (IVDR)), almeno una notifica all’autorità competente per uno studio clinico o di performance, e in molti casi sarà necessaria un’autorizzazione. Quando il dispositivo include un sistema IA, che è ad alto rischio secondo la definizione nel Regolamento IA (Regolamento 2024/1689), è improbabile che l’uso effettivo sui pazienti rientri nell’esclusione dal Regolamento IA ai sensi dell’Articolo 2(6) di ‘ricerca scientifica e sviluppo’. Invece, il dispositivo dovrebbe anche conformarsi ai requisiti per il collaudo dei sistemi IA ad alto rischio in condizioni reali negli Articoli 60 e 61 del Regolamento IA. La sovrapposizione di questi due regimi non del tutto allineati aggiunge complicazioni che potrebbero essere risolte solo attraverso linee guida dell’UE, che speriamo vengano redatte da chi ha una comprensione approfondita del modo in cui operano le sperimentazioni cliniche, così come una conoscenza operativa dei dispositivi medici e dei dispositivi medici in vitro.

Si rimanda ad altri articoli che trattano della privacy dei dati in un contesto clinico.

More Insights

Regolamentazione dell’IA: verso un futuro più sicuro nel settore assicurativo

Il Chartered Insurance Institute (CII) ha richiesto chiari quadri di responsabilità e una strategia di competenze a livello settoriale per guidare l'uso dell'intelligenza artificiale (AI) nei servizi...

Regolamentazione dell’IA nel settore MedTech in APAC

La regolamentazione dell'intelligenza artificiale (AI) nella regione Asia-Pacifico è ancora agli inizi, principalmente governata da normative esistenti progettate per altre tecnologie. Nonostante ciò...

Sviluppi dell’Intelligenza Artificiale a New York: Cosa Sapere per il Futuro del Lavoro

Nel primo semestre del 2025, New York ha iniziato a regolare l'intelligenza artificiale (AI) a livello statale con l'introduzione di leggi per affrontare la discriminazione algoritmica, in particolare...

Gestire i Rischi dell’Intelligenza Artificiale: Un Approccio Strategico

L'articolo discute l'importanza della gestione dei rischi nell'intelligenza artificiale, evidenziando che il rischio AI può derivare da dati errati o da attacchi esterni. Utilizzare un framework di...

Comprendere l’Atto sull’Intelligenza Artificiale dell’UE

L'Unione Europea ha introdotto l'Artificial Intelligence Act (AI Act), una regolamentazione storica progettata per gestire i rischi e le opportunità delle tecnologie AI in Europa. Questo articolo...

Legge Fondamentale sull’IA in Corea: Un Nuovo Orizzonte Normativo

La Corea del Sud ha adottato la Legge di Base sull'Intelligenza Artificiale, diventando il primo mercato asiatico a stabilire un quadro normativo completo per l'IA. Questa legislazione avrà un impatto...

Intelligenza Artificiale e Regolamentazione: Preparati al Cambiamento

L'atto sull'IA dell'UE e il DORA stanno creando una nuova complessità per le entità finanziarie, richiedendo un approccio basato sul rischio. È fondamentale quantificare l'impatto finanziario delle...

Regolamentare l’IA: Sfide e Opportunità nell’Atlantico

L'intelligenza artificiale (IA) è diventata una delle forze tecnologiche più decisive del nostro tempo, con il potere di rimodellare le economie e le società. Questo capitolo esplora il momento...

Strategia Europea per l’Intelligenza Artificiale: Verso le Gigafabbriche

La Commissione Europea vuole ridurre le barriere per l'implementazione dell'intelligenza artificiale, promuovendo la costruzione di "gigafabbriche AI" per migliorare l'infrastruttura dei centri dati...