Desafios da Governança na Saúde com IA

Quando a IA Decide Seu Cuidado: As Questões de Governança que Cada Parte Interessada Deve Perguntar — E Ninguém Está Fazendo

Uma investigação revelou que uma ferramenta de IA usada por um grande segurador negou mais de 300.000 pedidos em dois meses. As negações foram geradas em minutos — mais rápido do que qualquer revisor humano poderia ler um único arquivo. A maioria dos pacientes nunca apelou. Eles presumiram que o algoritmo sabia algo que seu médico não sabia. Alguns simplesmente ficaram sem o cuidado. Essa suposição é a crise de governança que ninguém nomeou completamente ainda.

Um homem de 62 anos com uma condição cardíaca complexa documentada teve a cobertura negada para reabilitação cardíaca especializada. Seu cardiologista considerou o tratamento clinicamente essencial. O sistema automatizado de seu segurador sinalizou os códigos de tratamento como não atendendo aos critérios de necessidade médica. Ele não recebeu nenhuma explicação se um médico havia revisado seu arquivo ou se a decisão havia sido gerada algorítmicamente em segundos. Ele presumiu que o sistema sabia algo que seu cardiologista não sabia. Ele não apelou. Ele foi um dos mais de 80% dos pacientes que nunca fazem isso — e um dos menos de 0,2% das negações que, se ele tivesse apelado, quase certamente teriam sido revertidas.

Questões Centrais de Governança

A questão central é enganadoramente simples: quando um paciente discorda de uma decisão de saúde influenciada pela IA, quem é responsável — e quais direitos o paciente realmente possui? Como documentado pela Agência para Pesquisa e Qualidade em Saúde em 2024, as questões não respondidas no centro da IA em saúde são exatamente essas: O que fazer quando você discorda de um algoritmo? Quem assume a responsabilidade por concordar — ou discordar — de uma recomendação de IA? Já estamos enfrentando esses desafios.

A ECRI classificou a governança insuficiente da IA como a segunda maior ameaça à segurança do paciente para 2025, observando que apenas 16% dos executivos hospitalares em 2023 relataram uma política de governança em todo o sistema para o uso da IA e acesso a dados. O vácuo não é teórico. É uma realidade operacional diária na qual sistemas de IA estão influenciando decisões clínicas e de cobertura enquanto pacientes, clínicos e reguladores ainda estão negociando quem é responsável por supervisioná-los.

Clarificações e Desafios

Em fevereiro de 2024, houve um movimento para esclarecer os limites. Um memorando de perguntas frequentes afirmou explicitamente que um algoritmo não pode sobrepor as circunstâncias médicas individuais de um paciente — que a IA pode ajudar nas determinações de cobertura, mas não pode substituir a revisão individualizada que uma recomendação médica exige. A decisão foi significativa. No entanto, não criou a estrutura operacional para aplicá-la. Saber que a regra existe e ter um sistema que previna estruturalmente violações são duas coisas completamente diferentes.

Responsabilidade Compartilhada

Nenhum dos cinco principais envolvidos em cada decisão de cuidado influenciada pela IA — seguradora, prestador, regulador, paciente e a própria tecnologia — aceitou total responsabilidade. Todos precisam começar com a mesma pergunta: qual é meu papel quando o algoritmo erra?

As seguradoras devem perguntar: é nosso modelo de IA que faz a determinação final, ou está fornecendo informações a um revisor humano que exerce julgamento clínico independente antes que qualquer negação seja comunicada ao paciente? A partir de 2026, as pagadoras devem fornecer uma razão específica para cada negação assistida por IA e publicar dados de aprovação agregados. Isso não é um ônus de relatório — é uma estrutura de responsabilidade.

Os prestadores devem perguntar: quando o suporte à decisão clínica gerado pela IA contradiz meu julgamento, minha instituição tem um protocolo documentado para como essa discordância é registrada, escalada e resolvida? A posição de política da Associação Americana de Médicos é clara: a IA deve aumentar a tomada de decisão do médico, não supri-la.

Os pacientes devem perguntar: tenho o direito de saber quando um sistema de IA influenciou uma decisão sobre meu cuidado, e tenho um caminho claro para apelar? A resposta varia de acordo com o estado. Onde você mora atualmente determina quais direitos você possui quando um algoritmo afeta seu cuidado.

Os reguladores devem perguntar: a “revisão humana significativa” está definida com especificidade suficiente para que as organizações não possam satisfazê-la apenas encaminhando decisões para um humano que aprova rapidamente uma saída da IA?

Próximos Passos

Nenhum dos envolvidos tem a resposta completa ainda. Isso não é uma desculpa para a inação — é o contexto para passos interinos urgentes. Cada organização que implanta IA em decisões clínicas ou de cobertura deve exigir um histórico gerado por humanos para cada resultado influenciado por IA — não como um exercício de conformidade, mas como a base probatória quando um paciente contesta uma decisão. Cada negação deve incluir uma explicação em linguagem simples se um modelo de IA foi envolvido e quais são os direitos de apelação do paciente.

A governança correta não é um obstáculo para a promessa da IA na saúde. É o caminho para isso.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...