VHA y el Uso de IA: Riesgos Potenciales para la Seguridad del Paciente
El uso de herramientas de chat de inteligencia artificial (IA) generativa por parte de la Administración de Salud de Veteranos (VHA) presenta un riesgo potencial para la seguridad del paciente, según un análisis reciente del Departamento de Asuntos de Veteranos.
Falta de Mecanismos Formales
La revisión del 15 de enero revela que la VHA no tiene un mecanismo formal para identificar, rastrear o resolver los riesgos asociados con la IA generativa, lo que genera preocupaciones sobre cómo se protege la seguridad del paciente al implementar esta tecnología en entornos clínicos.
Según el análisis, los esfuerzos de IA en la atención médica de la VHA son impulsados por una colaboración informal entre el director interino del Instituto Nacional de IA y el oficial de IA del Departamento de Tecnología de la Información. Estos funcionarios no coordinaron con el Centro Nacional de Seguridad del Paciente al autorizar herramientas de chat de IA para uso clínico.
Herramientas de IA Autorizadas
La VHA ha autorizado dos herramientas de chat de IA para su uso con información de salud del paciente: Microsoft 365 Copilot Chat y VA GPT, una nueva herramienta de chat interna diseñada para empleados.
Si bien estas herramientas están destinadas a apoyar la toma de decisiones clínicas, se advierte que los sistemas de IA generativa pueden producir resultados inexactos o incompletos, incluyendo omisiones que podrían afectar diagnósticos o decisiones de tratamiento.
Preocupaciones sobre la Seguridad del Paciente
El análisis expresa preocupación sobre la capacidad de la VHA para promover y salvaguardar la seguridad del paciente sin un proceso estandarizado para gestionar los riesgos relacionados con la IA. Además, la falta de un proceso impide un bucle de retroalimentación y un medio para detectar patrones que podrían mejorar la seguridad y calidad de las herramientas de chat de IA utilizadas en entornos clínicos.
Debido a la naturaleza crítica del tema, se comparte ampliamente este hallazgo preliminar para que los líderes de la VHA sean conscientes de este riesgo para la seguridad del paciente.
Revisión en Curso
La revisión de la Oficina del Inspector General (OIG) está en curso, por lo que no se emitieron recomendaciones formales. Se continuará el compromiso con los líderes de la VHA e incluirá un análisis en profundidad de este hallazgo, junto con cualquier hallazgo adicional, en su informe final.
Este análisis coincide con hallazgos de un informe reciente que advierte que las agencias gubernamentales están operando sin la gobernanza necesaria para manejar la IA de manera segura. La encuesta realizada a gobiernos globales encontró que solo el 10% tiene una gobernanza centralizada de IA.
Un tercio no cuenta con controles dedicados a la IA, y el 76% carece de mecanismos automatizados para desactivar o revocar sistemas de IA de alto riesgo, así como de detección de anomalías en IA.