Licenziare l’Intelligenza Artificiale come i Clinici?

Può l’IA essere autorizzata come i clinici?

L’IA generativa aiuta già i clinici a interpretare i risultati di laboratorio, dosare gli antibiotici e rispondere alle domande dei pazienti. I processi di approvazione attuali per l’IA sanitaria utilizzano il framework della Food and Drug Administration (FDA) per il software come dispositivo medico (SaMD), che funziona meglio per strumenti di singolo produttore progettati per eseguire compiti ristretti, come la classificazione delle lesioni polmonari ad alto rischio. Tuttavia, i moderni prodotti di IA generativa hanno un set di abilità più ampio e possono essere costruiti su una base creata da un’azienda, perfezionati da un’altra e ampliati tramite plug-in di terze parti, senza una chiara responsabilità normativa.

Proposta di un nuovo approccio

Un recente articolo di opinione propone un approccio diverso: autorizzare l’IA nello stesso modo in cui autorizziamo i medici umani, gli infermieri praticanti e gli assistenti medici, che operano in modi supervisionati e collaborativi. Gli autori sostengono che le preoccupazioni riguardanti l’IA generativa, come le allucinazioni e la deriva delle prestazioni, rispecchiano le preoccupazioni della fine del XIX secolo riguardo ai rimedi truffaldini e alla formazione variabile dei clinici. L’approccio della licenza, che combina standard di pratica con sorveglianza e formazione continua, può essere adattato per la regolamentazione dell’IA.

Struttura proposta per la licenza

Idealmente, un nuovo consiglio di licenza digitale federale supervisionerebbe il framework. Tuttavia, gli enti federali e statali esistenti potrebbero svolgere ruoli importanti: la FDA potrebbe mantenere il suo ruolo nelle valutazioni pre-mercato, evitando che gli sviluppatori debbano presentare domanda a 50 autorità di licenza statali.

I sistemi sanitari designati con competenze in IA potrebbero fungere da centri di implementazione, e la continua sorveglianza e disciplina potrebbero ricadere sui consigli medici statali, con un organo coordinatore federale per armonizzare gli standard.

Un framework di licenza potrebbe aiutare a garantire che l’innovazione si sviluppi con responsabilità e non prima di essa.

Paralleli tra la licenza umana e quella dell’IA

Di seguito una tabella che mostra i paralleli tra la licenza dei clinici e una potenziale struttura di licenza per l’IA generativa:

  • Concetto di Licenza
  • Clinico Umano
  • IA Generativa
  1. Requisiti di pre-licenza
    • Laurea accreditata e superamento degli esami nazionali. Periodo di formazione clinica supervisionata.
    • Validazione tecnica per competenze predefinite (esami nazionali per l’IA). Pilota supervisionato in centri di implementazione accreditati a livello nazionale (residenza per l’IA).
  2. Ambito di pratica
    • Delineazione dei servizi medici approvati, in quali popolazioni, con grado di autonomia. Accordi di collaborazione o supervisione per PA/NP.
    • Delineazione delle funzioni approvate (es. interpretazione delle immagini), in quali popolazioni, con grado di autonomia. Indicazioni sulla supervisione clinica per ogni funzione.
  3. Accreditamento istituzionale
    • I sistemi sanitari accreditano per eseguire procedure specifiche e rivedere i risultati e possono sospendere i privilegi per motivi di sicurezza.
    • I comitati di governance dell’IA dei sistemi sanitari verificano l’implementazione specifica del sito, determinano i privilegi locali all’interno dell’ambito di pratica dell’IA autorizzata e monitorano le metriche di qualità locali. Possono revocare un privilegio o disattivare un modello se non vengono rispettati i limiti.
  4. Sorveglianza continua
    • Requisiti di formazione continua e valutazioni periodiche delle conoscenze (per il mantenimento della certificazione del consiglio).
    • Ripetizione annuale di benchmark aggiornati per ogni competenza e report di misure di prestazione clinica per la revisione del consiglio.
  5. Disciplina/responsabilità
    • I consigli medici statali indagano sui reclami e possono multare, sospendere o revocare la licenza, o imporre riformazione. Le azioni sono segnalate al National Practitioner Data Bank.
    • I consigli digitali ricevono e processano reclami e possono mettere il sistema IA in probatione; richiedere patch o ulteriori misure di sicurezza; sospendere o revocare la licenza. Mantengono un database pubblico di modelli disciplinati e piani d’azione correttivi.

In sintesi, è tempo di considerare un approccio normativo per l’IA che garantisca la sicurezza e l’efficacia, simile a quello già in atto per i professionisti della salute.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...