Riscos de Segurança do Paciente com o Uso de IA na VHA

Uso de IA pela VHA Apresenta Potencial Risco à Segurança do Paciente

O uso de ferramentas de chat de inteligência artificial (IA) generativa pela Administração de Saúde dos Veteranos (VHA) para cuidados clínicos apresenta “um potencial risco à segurança do paciente”, de acordo com uma nova análise de um órgão de fiscalização.

Análise da Situação

A revisão, datada de 15 de janeiro, revela que “a VHA não possui um mecanismo formal para identificar, rastrear ou resolver riscos associados à IA generativa”, levantando preocupações sobre como a segurança do paciente é protegida enquanto a tecnologia é implantada em ambientes clínicos.

Os esforços da VHA em tecnologia de saúde são impulsionados por uma “colaboração informal” entre os diretores responsáveis, que não coordenaram com o centro de segurança do paciente ao autorizar ferramentas de chat de IA para uso clínico.

Ferramentas de IA Autorizadas

A VHA autorizou duas ferramentas de chat de IA para uso com informações de saúde dos pacientes: uma ferramenta de chat integrada ao Microsoft 365 e outra, interna, projetada para funcionários.

Embora essas ferramentas visem apoiar a tomada de decisões clínicas, o órgão de fiscalização alertou que os sistemas de IA generativa podem produzir resultados imprecisos ou incompletos, incluindo omissões que podem afetar diagnósticos ou decisões de tratamento.

Implicações e Riscos

O órgão expressou preocupação sobre a capacidade da VHA de promover e salvaguardar a segurança do paciente sem um processo padronizado para gerenciar riscos relacionados à IA. A ausência de um processo também impede um ciclo de feedback e a detecção de padrões que poderiam melhorar a segurança e a qualidade das ferramentas de chat de IA usadas em ambientes clínicos.

Diante da gravidade da questão, o órgão decidiu compartilhar amplamente essa descoberta preliminar para que os líderes da VHA estejam cientes desse risco à segurança do paciente.

Conclusão

A análise está em andamento, e o órgão não emitiu recomendações formais. Ele continuará a se envolver com os líderes da VHA e incluirá uma análise aprofundada deste achado em seu relatório final.

A análise do órgão alinha-se com descobertas de um relatório recente que alerta que agências governamentais operam sem a governança operacional necessária para gerenciar a IA de forma segura. A pesquisa revelou que apenas 10% das autoridades possuem governança centralizada para IA.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...