4 elementos imprescindibles para ejecutivos de salud que implementan escribas de inteligencia artificial ambiental a gran escala
Los médicos valoran sus escribas digitales. Un estudio reciente mostró que cerca de un tercio de ellos ya utiliza esta tecnología emergente para capturar contenido clave durante los encuentros con pacientes.
La rápida adopción puede ser un buen problema, pero sigue siendo un problema. Para hospitales y sistemas de salud, la dificultad radica en que la tecnología avanza más rápido que la validación, la transparencia y la supervisión regulatoria en diversas áreas de la empresa.
Un estudio publicado recientemente examina la situación y ofrece información basada en evidencias para líderes de salud que necesitan escalar escribas de IA ambiental en entornos de atención médica diversos y dispersos.
Las escribas de IA ambiental tienen el potencial de transformar la documentación clínica y aliviar la carga cognitiva y administrativa como herramienta asistencial para los clínicos. Sin embargo, su éxito en diferentes entornos de atención depende no solo de la sofisticación técnica, sino también del diseño ético, la evaluación inclusiva y la claridad de gobernanza.
1. Diseño ético
Se han planteado diversas preocupaciones éticas y dilemas regulatorios a medida que las escribas de IA ambiental se han proliferado en los entornos clínicos. Los problemas asociados con la inteligencia artificial de lenguaje grande no se limitan a las escribas. Estas preocupaciones incluyen el sesgo del modelo, el sesgo de automatización, las alucinaciones y el potencial de desinformación, así como la falta de transparencia en los datos de entrenamiento y las implicaciones legales cuando la IA está involucrada en errores médicos.
Dentro de los flujos de trabajo clínicos, los dilemas éticos se extienden más allá de esto e incluyen la transparencia, la privacidad, la equidad y la responsabilidad. Es interesante que estas herramientas se etiqueten como ‘ambientales’, lo que da la impresión de que son pasivas y puede ser engañoso, ya que no informan claramente a los pacientes que sus conversaciones están siendo grabadas y guardadas.
2. Desarrollo inclusivo y mitigación de sesgos
Los sistemas basados en modelos de lenguaje grande han demostrado reproducir, si no amplificar, los sesgos presentes en los conjuntos de datos de entrenamiento. Los grupos subrepresentados pueden ser excluidos o malinterpretados si las escribas de IA ambiental no están entrenadas en patrones lingüísticos, acentos y dialectos diversos.
Los modelos propietarios rara vez revelan sus datos de entrenamiento y validación para análisis de sesgo y equidad. Si los clínicos exhiben sesgo de automatización, mostrando una confianza excesiva en la herramienta, el problema podría agravarse. Se hace un llamado a una evaluación cautelosa por parte de los adoptantes.
3. Validación contextual
Los entornos de alta agudeza pueden compartir muchas similitudes, pero tienden a ser altamente diversos entre organizaciones. Estas diferencias pueden impactar la efectividad y el perfil de seguridad de las escribas de IA ambiental. La planificación de la implementación, el compromiso del usuario y el monitoreo posterior a la implementación son críticos para el éxito y la gestión de riesgos en diferentes entornos.
Se urge a probar modelos propietarios en diferentes entornos de práctica para asegurar que la equidad relativa sea evidente entre diferentes demografías de pacientes. Las escribas de IA actualmente disponibles no son fáciles de adoptar o adaptar a flujos de trabajo dinámicos que varían entre entornos.
4. Gobernanza clara y robusta
El monitoreo en la práctica debe abarcar el rendimiento, la equidad y los casos de ‘aceptación insegura’. Se define este último término como el uso no corregido de un elemento generado por una escriba en contextos de fiabilidad reducida que luego se juzga incorrecto, incompleto o engañoso.
El monitoreo continuo de la deriva del rendimiento y los eventos adversos no intencionados es un paso crítico para garantizar la seguridad de la implementación a gran escala; sin embargo, los métodos de evaluación actuales dependen en gran medida de la evaluación de expertos humanos y no son escalables.
Una estrategia potencial para sortear esta limitación es entrenar evaluadores basados en modelos de lenguaje grande para evaluar la corrección, relevancia y completitud en cada especialidad de alta agudeza, complementando la revisión de expertos.
Los autores concluyen subrayando que, con el conocimiento de las limitaciones actuales y una integración cuidadosa, las escribas de IA ambiental pueden evolucionar de herramientas de transcripción pasivas a socios de confianza en la entrega de atención compleja en todos los entornos de atención.