Come i Sistemi eTMF Abilitati all’IA Sono Impattati dalla Legge UE sull’IA (Parte 1)
Con l’integrazione sempre maggiore dell’IA nei sistemi eTMF, le organizzazioni nel settore della ricerca clinica si trovano ad affrontare un nuovo e complesso panorama normativo modellato dalla Legge sull’Intelligenza Artificiale dell’Unione Europea (Legge UE sull’IA).
Cos’è la Legge UE sull’IA
La Legge UE sull’IA non è una linea guida tecnica né un framework di best practice volontario. Si tratta di una regolazione orizzontale vincolante che si applica a tutti i settori, comprese le scienze della vita e la ricerca clinica. L’obiettivo principale è garantire che i sistemi di IA messi a punto o utilizzati nel mercato UE siano sicuri, trasparenti, affidabili e rispettosi dei diritti fondamentali, inclusa la protezione dei dati e la non discriminazione.
Filosofia Regolatoria
Per le organizzazioni già operative sotto GCP, GMP, GDPR e regolamenti sui sistemi di qualità, la Legge UE sull’IA introduce una filosofia regolatoria molto familiare, ma la applica a un nuovo oggetto di controllo: i sistemi di IA stessi. In sostanza, la Legge UE sull’IA considera l’IA non solo come funzionalità software, ma come una capacità regolamentata che deve essere governata per tutto il suo ciclo di vita.
Quadro Regolatorio Basato sul Rischio
La Legge UE sull’IA stabilisce un quadro normativo basato sul rischio per i sistemi di IA, il che significa che il livello di controllo normativo è proporzionale al livello di rischio che un sistema di IA rappresenta per gli individui e per la società. Questo approccio è concettualmente allineato con i framework già noti nella ricerca clinica.
Categorie di Rischio
- Rischio Inaccettabile – Sistemi di IA che pongono una chiara minaccia per la salute, la sicurezza e i diritti fondamentali sono vietati. Esempi includono IA manipolativa e sorveglianza biometrica negli spazi pubblici.
- Rischio Alto – Sistemi di IA che possono influenzare significativamente la salute o i diritti fondamentali sono permessi ma soggetti a requisiti rigorosi, come la gestione del rischio e la trasparenza.
- Rischio Limitato – Sistemi di IA che presentano un potenziale limitato di danno devono rispettare obblighi di trasparenza.
- Minimo o Nessun Rischio – Sistemi di IA con effetti trascurabili sugli individui sono in gran parte non regolamentati dalla Legge sull’IA.
Implicazioni per eTMF Abilitati all’IA
Un sistema eTMF abilitato all’IA non opera più come un semplice supporto operativo. Esso inizia a plasmare attivamente la base di prove regolatorie su cui gli ispettori si basano per valutare la conformità alla GCP. Funzionalità come l’estrazione di metadati e la rilevazione di documentazione mancante possono influenzare decisioni critiche come la prontezza per le ispezioni e la qualità del TMF.
Conclusione
Integrare l’IA nei sistemi eTMF segna un cambiamento strutturale nel modo in cui la conformità alle prove cliniche, il monitoraggio e la protezione dei pazienti vengono dimostrati. La Legge UE sull’IA non introduce una filosofia regolatoria estranea per il settore delle scienze della vita, ma estende principi consolidati di supervisione basata sul rischio a un nuovo e potente oggetto di controllo: il supporto decisionale abilitato all’IA.