Migliorare la Supervisione Normativa dell’Intelligenza Artificiale Medica
Considera una tecnologia in grado di identificare i tumori cerebrali pediatrici più rapidamente di un essere umano. Questo futuro è già arrivato. Due terzi dei professionisti sanitari hanno riportato di aver incorporato l’intelligenza artificiale (AI) nel loro lavoro in un recente studio. Tuttavia, molti clinici hanno anche espresso la necessità di una “maggiore supervisione” dell’AI medica.
La Necessità di Supervisione
Attualmente, la supervisione dell’AI medica si basa eccessivamente su un “umano nel loop”, un approccio che richiede ai singoli clinici di rivedere e incorporare ciascuna raccomandazione dell’AI in modo sicuro ed efficace. Molti clinici mancano delle competenze o del tempo necessari per valutare l’AI medica, e si richiede ai responsabili politici di sviluppare strutture normative che possano promuovere un’AI medica sicura ed efficace senza dipendere dai singoli clinici.
I Difetti di Progettazione e i Pregiudizi
L’AI medica richiede supervisione a causa di difetti di progettazione “di base”. Uno studio ha rilevato che un algoritmo addestrato per rilevare polmoniti da radiografie ha funzionato bene nell’ospedale in cui è stato sviluppato, ma ha fallito in altri ospedali. L’algoritmo aveva appreso a rilevare caratteristiche che riflettevano l’ambiente fisico dell’ospedale originale piuttosto che i sintomi dei pazienti.
Inoltre, i pregiudizi amplificano questi difetti di progettazione. Meno del cinque percento dei sistemi AI approvati dalla FDA tra il 2012 e il 2020 ha divulgato i dati demografici razziali nei propri dataset, aumentando il rischio che dati di addestramento non rappresentativi possano peggiorare i risultati per i gruppi razziali minoritari.
Quadri Normativi Correnti
I quadri normativi attuali affrontano questi difetti di progettazione e pregiudizi attraverso due livelli di governance: centrale e locale. A livello centrale, le agenzie federali e le organizzazioni mediche sviluppano quadri e regole nazionali per monitorare e testare l’AI medica. La FDA richiede che molti sistemi AI soddisfino standard di sicurezza ed efficacia prima di poter entrare nel mercato.
Tuttavia, la guida attuale della FDA enfatizza che le raccomandazioni dell’AI debbano fornire ai clinici “informazioni specifiche per il paziente”, lasciando una parte significativa della responsabilità di governance ai singoli clinici.
Governance Locale e Competenze Necessarie
La governance locale sposta la supervisione sugli ospedali che testano i sistemi AI all’interno dei propri ambienti clinici. Tuttavia, la governance locale richiede competenze, infrastrutture e risorse umane significative, requisiti che molti ospedali più piccoli o sottofinanziati non possono soddisfare senza ricorrere ai propri clinici.
I clinici spesso svolgono un ruolo “correttivo”, controllando errori, adattandosi a fattori “specifici della situazione” e identificando pregiudizi. Tuttavia, studi hanno dimostrato che i clinici spesso non riescono a identificare modelli difettosi o pregiudizievoli, anche quando sono forniti di strumenti esplicativi.
Soluzioni Proposte
Una soluzione a breve termine è che, quando i clinici rimangono nel loop, i regolatori e gli ospedali dovrebbero definire ruoli chiari e limitati per i clinici, in modo che la supervisione dell’AI medica non comprometta le altre responsabilità dei clinici. Inoltre, si propone un supporto istituzionale come formazione e monitoraggio continuo per aiutare i clinici a sovrintendere un uso sicuro ed efficace della tecnologia AI.
Nel lungo termine, si immagina un quadro in cui l’AI medica funzioni senza dipendere dalla costante supervisione dei clinici. Si invita a valutare i sistemi AI come strumenti indipendenti, capaci di operare in contesti con competenze mediche limitate, riducendo la dipendenza dai clinici sovraccaricati e democratizzando l’expertise medica.
Conclusioni
Riconoscendo le sfide future, si conclude che l’AI medica potrà migliorare gli esiti sanitari solo se i quadri di supervisione anticipano i limiti clinici anziché assumere prestazioni perfette da parte dei clinici.