Regolamentazione dell’IA nelle Scienze della Vita nel Regno Unito

Approccio del Regno Unito alla Regolamentazione dell’IA nelle Scienze della Vita

Il scientifico di ricerca sta contribuendo allo sviluppo e all’implementazione di nuovi progetti di ricerca e lavora per promuovere i progetti di ricerca esistenti all’interno dell’organizzazione.

Posizione attuale dell’MHRA sulla regolamentazione del software e dell’IA inclusi nei dispositivi medici

Il Regno Unito ha a lungo promesso una nuova legislazione per sostituire il vecchio quadro normativo, principalmente guidato dalle tre direttive sui dispositivi medici dell’Unione Europea, ora largamente obsolete. Sebbene le nuove regolazioni sulla sorveglianza post-marketing siano già in vigore, il resto delle normative deve ancora essere pubblicato.

Nel frattempo, l’innovazione nel settore, compresa quella legata all’IA, continua a un ritmo sostenuto e il panorama normativo del Regno Unito deve tenere il passo. In attesa di nuove leggi, l’MHRA ha pubblicato principi e linee guida, riassunti di seguito, che mostrano il pensiero attuale dell’MHRA riguardo al software come dispositivo medico, comprese le applicazioni IA.

Principi, non leggi (per ora)

L’MHRA ha pubblicato un insieme di principi applicabili ai dispositivi medici che includono l’IA, sviluppati in collaborazione con la FDA e Health Canada:

  • Dieci principi guida per le buone pratiche di machine learning per supportare lo sviluppo di tecnologie di intelligenza artificiale e machine learning sicure, efficaci e di alta qualità, aggiornati a giugno 2024 con ulteriori espansioni sui principi di trasparenza.
  • Principi guida per i piani di controllo delle modifiche predeterminate per il machine learning pubblicati nell’ottobre 2023.

Programmi di accesso accelerato al mercato

L’MHRA ha lanciato il programma pilota AI Airlock nel 2024, con cinque candidati selezionati che partecipano al progetto pilota, previsto fino ad aprile 2025. L’AI Airlock riunisce l’MHRA e esperti di corpi approvati nel Regno Unito e altri regolatori. Le lezioni apprese dal progetto pilota saranno applicate nello sviluppo di un AI Airlock per il futuro, simile al regulatory sandbox trovato nell’AI Act dell’UE, ma specificamente per i dispositivi medici, volto ad accelerare l’introduzione di dispositivi medici innovativi basati sull’IA nel mercato britannico.

Principi della nuova legislazione

Ad aprile 2024, l’MHRA ha pubblicato un documento che implementa i principi del White Paper sull’IA del governo conservatore, che includono cinque principi chiave per l’uso normativo dell’IA, non specifici per i dispositivi medici. La risposta dell’MHRA ha sottolineato che le Regolazioni sui Dispositivi Medici del Regno Unito del 2002 includono disposizioni che coprono il ciclo di vita del prodotto, dalla ricerca clinica alla valutazione di conformità, compresi i requisiti per mitigare i rischi e affrontare le preoccupazioni relative a sicurezza e prestazioni.

L’MHRA intende creare requisiti chiari per il software e l’IA per garantire che i dispositivi siano accettabilmente sicuri e funzionino come previsto. Questo sarà realizzato attraverso linee guida e processi più snelli per il software e la riclassificazione di tali dispositivi (da Classe I). Saranno anche designati standard da rispettare, preferibilmente quelli concordati a livello internazionale, come quelli pubblicati dal International Medical Device Regulators Forum (IMDRF).

Contenuto previsto delle nuove leggi sui dispositivi medici

L’MHRA sta lavorando su nuove normative, comprese normative specifiche per il software come dispositivo medico (SaMD) e per i dispositivi che includono l’IA (AIaMD).

Qualificazione come software come dispositivo medico

L’MHRA ha promesso linee guida su cosa sia il SaMD rispetto ai prodotti software per il benessere e lo stile di vita. Come accennato, il SaMD, in particolare quello che include l’IA, sarà riclassificato dalla attuale classe I. Il quadro che sarà seguito è quello dell’IMDRF. L’MHRA fornirà indicazioni su come definire lo scopo previsto per il SaMD e collegarlo con le popolazioni di pazienti e le prove cliniche, oltre che con il sistema di gestione della qualità (QMS) e il sistema di gestione dei rischi.

È previsto che vengano pubblicate linee guida per lo sviluppo e il dispiegamento dell’IA nei dispositivi medici, così come sulla sicurezza informatica, entro la fine del secondo trimestre.

Requisiti pre-market

L’MHRA intende semplificare il percorso verso il mercato per il SaMD e l’AIaMD rendendo i requisiti di dati proporzionati ai rischi del dispositivo. L’intenzione è di includere requisiti essenziali specifici per il SaMD e l’AIaMD.

L’MHRA sta collaborando con il British Standards Institution (BSI) sugli standard che dovrebbero essere applicabili al SaMD e all’AIaMD. Si presume che questi seguiranno ampiamente i principi dell’IMDRF, evidenziando le aree in cui le attuali migliori pratiche potrebbero non soddisfare i requisiti normativi o la definizione regolatoria di ‘stato dell’arte’.

L’MHRA fornirà linee guida sul design incentrato sull’uomo per evitare interpretazioni sistematiche errate degli output del software, concentrandosi su fattori umani, usabilità, prove delle scienze ergonomiche o comportamentali e sarà collegato ai requisiti essenziali. È in corso un progetto box trasparente che considera l’interpretabilità umana e le sue conseguenze per la sicurezza e l’efficacia dell’AIaMD, con linee guida sull’interpretabilità dell’AIaMD per garantire sicurezza ed efficacia.

Requisiti post-market

L’MHRA ha già pubblicato normative sulla sorveglianza post-marketing e analizzerà i dati per generare segnali di sicurezza per il SaMD. Tuttavia, finora, c’è stata poca segnalazione di eventi avversi per il SaMD. L’MHRA ha fornito linee guida aggiornate a gennaio 2025 sugli eventi che potrebbero costituire un evento avverso per il SaMD, con l’obiettivo dichiarato di incoraggiare una maggiore segnalazione.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...