Il settore farmaceutico accelera sull’IA, ma la governance fatica a tenere il passo
L’uso dell’IA nello sviluppo farmaceutico sta diventando sempre più diffuso, ma le normative sono ancora in fase di definizione.
Secondo un rapporto, il 71% delle aziende in vari settori utilizza ora l’IA generativa, con le scienze della vita tra i più rapidi adottatori. Tuttavia, solo il 53% mitiga attivamente i rischi legati all’IA.
Questa discrepanza ha portato a una certa inquietudine, poiché le aziende farmaceutiche implementano sistemi autonomi nella ricerca e sviluppo e nella produzione, costruendo al contempo i loro quadri di governance.
Vulnerabilità operative
I sistemi di IA introducono rischi che i quadri di qualità farmaceutica tradizionali non sono stati progettati per affrontare. Il drift del modello si verifica spesso quando le proiezioni dell’IA diventano imprecise nel tempo, poiché i dati di addestramento si discostano dalle condizioni di produzione primarie. Per la scoperta di farmaci, questo può significare che composti considerati promettenti sulla base di set di dati obsoleti non lo siano più. Nella produzione, ciò può comportare algoritmi di controllo qualità che non riescono a rilevare anomalie nei processi.
La perdita di dati tra le aziende di ricerca e sviluppo e i partner di produzione crea un ulteriore livello di esposizione. Modelli proprietari addestrati su dati di trial clinici possono inavvertitamente esporre informazioni sui pazienti o proprietà intellettuale quando condivisi oltre i confini strutturali. Senza controlli di provenienza rigorosi, le aziende farmaceutiche perdono visibilità su come vengono utilizzati i loro dati e se i modelli rimangono conformi alle normative sulla privacy.
Il rischio di bias continua a distorcere i risultati. Le revisioni normative condotte hanno identificato casi in cui algoritmi guidati dall’IA escludevano sistematicamente determinati gruppi demografici dai trial clinici, compromettendo così sia la conformità normativa che l’efficienza terapeutica.
Conformità in azione
I quadri normativi hanno un effetto profondo su come le aziende farmaceutiche affrontano la governance dell’IA. L’aggiornamento ICH E6(R3), finalizzato all’inizio del 2025, rafforza i requisiti per tutti i sistemi computerizzati utilizzati nei trial clinici, compresa l’IA. La Sezione 4.2.2 richiede che i metadati rilevanti per il trial siano conservati per consentire la ricostruzione del corso degli eventi. La Sezione 3.16.1 richiede che tutte le modifiche ai dati siano attribuibili, registrate e ricostruibili. Questi requisiti influenzano ogni trial assistito dall’IA presentato per approvazione normativa.
La pubblicazione dell’EMA sull’uso dell’IA nel ciclo di vita dei medicinali ribadisce queste aspettative per i sistemi di apprendimento automatico. Sottolinea che i richiedenti e i titolari di autorizzazione al commercio devono garantire che algoritmi, modelli, set di dati e pipeline di elaborazione dei dati siano documentati in modo trasparente e siano auditabili.
Questo cambiamento di posizione ha accelerato cambiamenti strutturali all’interno delle organizzazioni. Un numero crescente di aziende ha creato ruoli dedicati alla governance dell’IA o alla gestione dei rischi, riconoscendo che l’expertise normativa deve affiancare le capacità tecniche. I centri di eccellenza dell’IA stanno emergendo come hub operativi.
Prontezza per il futuro
Il prossimo rischio operativo è chiaro. L’analisi del settembre 2025 evidenzia che, man mano che l’IA diventa parte integrante dei flussi di lavoro, le aziende devono stabilire quadri di governance solidi con responsabilità chiare, misure di protezione per prevenire conseguenze indesiderate e audit regolari per garantire la conformità. I sistemi di IA agentici possono eseguire flussi di lavoro multi-passaggio senza supervisione umana, accelerando la scoperta e ottimizzando la produzione, ma creano anche vulnerabilità.
Perciò, sistemi osservabili sono essenziali. Ogni decisione dell’agente deve essere registrata, ogni fonte dati validata e ogni azione auditabile. Il monitoraggio continuo deve diventare lo standard operativo. Le aziende farmaceutiche che costruiranno queste capacità ora saranno pronte per il prossimo decennio. Coloro che procrastineranno affronteranno costosi interventi correttivi quando l’attenzione normativa aumenterà.
La responsabilità della leadership rimane il fattore distintivo. La sicurezza dell’IA non è un problema che può essere risolto esclusivamente dai team di ingegneria. Richiede dirigenti che comprendano che fiducia, convalida e trasparenza sono le fondamenta della velocità operativa.
Proteggere pazienti, dati e innovazione non sono più obiettivi separati. Sono priorità interdipendenti che definiscono come le aziende farmaceutiche operano nell’economia dell’intelligenza.