5 Passi per una Governance Efficace degli Scribi AI
Gli strumenti di AI ambientale stanno dimostrando il loro valore nella riduzione dello stress dei clinici e del carico di documentazione, ma ci sono rischi nell’utilizzarli. Uno studio recente offre alcuni suggerimenti su come garantire che siano governati e utilizzati in modo efficace e sicuro.
Principali Elementi da Considerare
Le organizzazioni sanitarie stanno abbracciando con entusiasmo gli strumenti di AI ambientale come mezzo per catturare l’incontro tra medico e paziente e ridurre lo stress, il burnout e la pressione amministrativa sui clinici. Tuttavia, sussistono preoccupazioni che la governance stia superando l’adozione, e che i leader sanitari non stiano preparando adeguatamente i loro clinici per un uso sicuro di questi strumenti.
Una solida governance e monitoraggio possono aiutare i leader sanitari a ridurre il rischio di errori di trascrizione, violazioni della HIPAA, e potenziali danni sia per i pazienti che per i fornitori. Se da un lato gli scribi AI stanno guadagnando popolarità nel settore sanitario, dall’altro l’adozione rapida potrebbe esporre i fornitori di assistenza sanitaria a rischi significativi.
Quattro Preoccupazioni Chiave
Lo studio cita quattro preoccupazioni relative agli scribi:
- Hallucinations: Gli strumenti AI possono generare contenuti inaccurati o addirittura fittizi, come diagnosi o casi clinici inesistenti.
- Omissioni: Uno scriba potrebbe non essere in grado di seguire tutta la conversazione, specialmente se ci sono più interlocutori, e potrebbe mancare informazioni vitali.
- Interpretazioni Errate: Alcuni scribi AI potrebbero non essere formati per comprendere il gergo medico o il contesto di specialità specifiche, come pediatria o salute mentale.
- Identificazione Errata degli Interlocutori: Se ci sono più persone nella stanza, lo scriba potrebbe non essere in grado di tenere il passo con chi sta parlando, risultando in tassi di errore più elevati.
Un’altra preoccupazione è che gli scribi ambientali non siano attrezzati per differenziare ciò che dovrebbe entrare nel registro medico e ciò che può essere lasciato fuori. Ciò solleva domande critiche su come gli scribi AI potrebbero cambiare i modelli di documentazione.
Problemi Aggiuntivi
Ci sono anche altre problematiche da considerare. La natura “black box” di questi sistemi rende difficile comprendere come arrivano a conclusioni specifiche o prevedono quando potrebbero verificarsi errori. Inoltre, gli strumenti AI possono portare a aspettative crescenti, creando un paradosso di carico di lavoro dove i risparmi di tempo modestamente significativi sono compensati da richieste maggiori.
Assicurare una Governance Efficace
È fondamentale garantire che siano in atto le misure di sicurezza per l’uso degli scribi AI nella cura clinica. A tal fine, lo studio offre cinque raccomandazioni:
- Stabilire standard di validazione rigorosi: Utilizzare metriche indipendenti e standardizzate per accuratezza, completezza e tempo risparmiato.
- Imporre trasparenza: Assicurarsi che i fornitori rivelino come funzionano questi strumenti, quali dati utilizzano e le loro limitazioni, inclusi i bias.
- Sviluppare quadri normativi chiari: Definire responsabilità e responsabilità quando vengono trovati errori e stabilire aspettative chiare per la correzione degli errori.
- Implementare protocolli clinici riflessivi: Stabilire programmi di formazione robusti, processi di assicurazione della qualità e protocolli di consenso informato per l’uso degli scribi AI.
- Investire nella ricerca: Riservare fondi per supportare la ricerca indipendente sugli impatti a lungo termine degli scribi AI sulla qualità, la decisione clinica e la comunicazione.