Rafforzare la Regolamentazione dell’IA Medica

Migliorare la Supervisione Normativa dell’Intelligenza Artificiale Medica

Considera una tecnologia in grado di identificare i tumori cerebrali pediatrici più rapidamente di un essere umano. Questo futuro è già arrivato. Due terzi dei professionisti sanitari hanno riportato di aver incorporato l’intelligenza artificiale (AI) nel loro lavoro in un recente studio. Tuttavia, molti clinici hanno anche espresso la necessità di una “maggiore supervisione” dell’AI medica.

La Necessità di Supervisione

Attualmente, la supervisione dell’AI medica si basa eccessivamente su un “umano nel loop”, un approccio che richiede ai singoli clinici di rivedere e incorporare ciascuna raccomandazione dell’AI in modo sicuro ed efficace. Molti clinici mancano delle competenze o del tempo necessari per valutare l’AI medica, e si richiede ai responsabili politici di sviluppare strutture normative che possano promuovere un’AI medica sicura ed efficace senza dipendere dai singoli clinici.

I Difetti di Progettazione e i Pregiudizi

L’AI medica richiede supervisione a causa di difetti di progettazione “di base”. Uno studio ha rilevato che un algoritmo addestrato per rilevare polmoniti da radiografie ha funzionato bene nell’ospedale in cui è stato sviluppato, ma ha fallito in altri ospedali. L’algoritmo aveva appreso a rilevare caratteristiche che riflettevano l’ambiente fisico dell’ospedale originale piuttosto che i sintomi dei pazienti.

Inoltre, i pregiudizi amplificano questi difetti di progettazione. Meno del cinque percento dei sistemi AI approvati dalla FDA tra il 2012 e il 2020 ha divulgato i dati demografici razziali nei propri dataset, aumentando il rischio che dati di addestramento non rappresentativi possano peggiorare i risultati per i gruppi razziali minoritari.

Quadri Normativi Correnti

I quadri normativi attuali affrontano questi difetti di progettazione e pregiudizi attraverso due livelli di governance: centrale e locale. A livello centrale, le agenzie federali e le organizzazioni mediche sviluppano quadri e regole nazionali per monitorare e testare l’AI medica. La FDA richiede che molti sistemi AI soddisfino standard di sicurezza ed efficacia prima di poter entrare nel mercato.

Tuttavia, la guida attuale della FDA enfatizza che le raccomandazioni dell’AI debbano fornire ai clinici “informazioni specifiche per il paziente”, lasciando una parte significativa della responsabilità di governance ai singoli clinici.

Governance Locale e Competenze Necessarie

La governance locale sposta la supervisione sugli ospedali che testano i sistemi AI all’interno dei propri ambienti clinici. Tuttavia, la governance locale richiede competenze, infrastrutture e risorse umane significative, requisiti che molti ospedali più piccoli o sottofinanziati non possono soddisfare senza ricorrere ai propri clinici.

I clinici spesso svolgono un ruolo “correttivo”, controllando errori, adattandosi a fattori “specifici della situazione” e identificando pregiudizi. Tuttavia, studi hanno dimostrato che i clinici spesso non riescono a identificare modelli difettosi o pregiudizievoli, anche quando sono forniti di strumenti esplicativi.

Soluzioni Proposte

Una soluzione a breve termine è che, quando i clinici rimangono nel loop, i regolatori e gli ospedali dovrebbero definire ruoli chiari e limitati per i clinici, in modo che la supervisione dell’AI medica non comprometta le altre responsabilità dei clinici. Inoltre, si propone un supporto istituzionale come formazione e monitoraggio continuo per aiutare i clinici a sovrintendere un uso sicuro ed efficace della tecnologia AI.

Nel lungo termine, si immagina un quadro in cui l’AI medica funzioni senza dipendere dalla costante supervisione dei clinici. Si invita a valutare i sistemi AI come strumenti indipendenti, capaci di operare in contesti con competenze mediche limitate, riducendo la dipendenza dai clinici sovraccaricati e democratizzando l’expertise medica.

Conclusioni

Riconoscendo le sfide future, si conclude che l’AI medica potrà migliorare gli esiti sanitari solo se i quadri di supervisione anticipano i limiti clinici anziché assumere prestazioni perfette da parte dei clinici.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...