Quando a IA Decide Seu Cuidado: As Questões de Governança que Cada Parte Interessada Deve Perguntar — E Ninguém Está Fazendo
Uma investigação revelou que uma ferramenta de IA usada por um grande segurador negou mais de 300.000 pedidos em dois meses. As negações foram geradas em minutos — mais rápido do que qualquer revisor humano poderia ler um único arquivo. A maioria dos pacientes nunca apelou. Eles presumiram que o algoritmo sabia algo que seu médico não sabia. Alguns simplesmente ficaram sem o cuidado. Essa suposição é a crise de governança que ninguém nomeou completamente ainda.
Um homem de 62 anos com uma condição cardíaca complexa documentada teve a cobertura negada para reabilitação cardíaca especializada. Seu cardiologista considerou o tratamento clinicamente essencial. O sistema automatizado de seu segurador sinalizou os códigos de tratamento como não atendendo aos critérios de necessidade médica. Ele não recebeu nenhuma explicação se um médico havia revisado seu arquivo ou se a decisão havia sido gerada algorítmicamente em segundos. Ele presumiu que o sistema sabia algo que seu cardiologista não sabia. Ele não apelou. Ele foi um dos mais de 80% dos pacientes que nunca fazem isso — e um dos menos de 0,2% das negações que, se ele tivesse apelado, quase certamente teriam sido revertidas.
Questões Centrais de Governança
A questão central é enganadoramente simples: quando um paciente discorda de uma decisão de saúde influenciada pela IA, quem é responsável — e quais direitos o paciente realmente possui? Como documentado pela Agência para Pesquisa e Qualidade em Saúde em 2024, as questões não respondidas no centro da IA em saúde são exatamente essas: O que fazer quando você discorda de um algoritmo? Quem assume a responsabilidade por concordar — ou discordar — de uma recomendação de IA? Já estamos enfrentando esses desafios.
A ECRI classificou a governança insuficiente da IA como a segunda maior ameaça à segurança do paciente para 2025, observando que apenas 16% dos executivos hospitalares em 2023 relataram uma política de governança em todo o sistema para o uso da IA e acesso a dados. O vácuo não é teórico. É uma realidade operacional diária na qual sistemas de IA estão influenciando decisões clínicas e de cobertura enquanto pacientes, clínicos e reguladores ainda estão negociando quem é responsável por supervisioná-los.
Clarificações e Desafios
Em fevereiro de 2024, houve um movimento para esclarecer os limites. Um memorando de perguntas frequentes afirmou explicitamente que um algoritmo não pode sobrepor as circunstâncias médicas individuais de um paciente — que a IA pode ajudar nas determinações de cobertura, mas não pode substituir a revisão individualizada que uma recomendação médica exige. A decisão foi significativa. No entanto, não criou a estrutura operacional para aplicá-la. Saber que a regra existe e ter um sistema que previna estruturalmente violações são duas coisas completamente diferentes.
Responsabilidade Compartilhada
Nenhum dos cinco principais envolvidos em cada decisão de cuidado influenciada pela IA — seguradora, prestador, regulador, paciente e a própria tecnologia — aceitou total responsabilidade. Todos precisam começar com a mesma pergunta: qual é meu papel quando o algoritmo erra?
As seguradoras devem perguntar: é nosso modelo de IA que faz a determinação final, ou está fornecendo informações a um revisor humano que exerce julgamento clínico independente antes que qualquer negação seja comunicada ao paciente? A partir de 2026, as pagadoras devem fornecer uma razão específica para cada negação assistida por IA e publicar dados de aprovação agregados. Isso não é um ônus de relatório — é uma estrutura de responsabilidade.
Os prestadores devem perguntar: quando o suporte à decisão clínica gerado pela IA contradiz meu julgamento, minha instituição tem um protocolo documentado para como essa discordância é registrada, escalada e resolvida? A posição de política da Associação Americana de Médicos é clara: a IA deve aumentar a tomada de decisão do médico, não supri-la.
Os pacientes devem perguntar: tenho o direito de saber quando um sistema de IA influenciou uma decisão sobre meu cuidado, e tenho um caminho claro para apelar? A resposta varia de acordo com o estado. Onde você mora atualmente determina quais direitos você possui quando um algoritmo afeta seu cuidado.
Os reguladores devem perguntar: a “revisão humana significativa” está definida com especificidade suficiente para que as organizações não possam satisfazê-la apenas encaminhando decisões para um humano que aprova rapidamente uma saída da IA?
Próximos Passos
Nenhum dos envolvidos tem a resposta completa ainda. Isso não é uma desculpa para a inação — é o contexto para passos interinos urgentes. Cada organização que implanta IA em decisões clínicas ou de cobertura deve exigir um histórico gerado por humanos para cada resultado influenciado por IA — não como um exercício de conformidade, mas como a base probatória quando um paciente contesta uma decisão. Cada negação deve incluir uma explicação em linguagem simples se um modelo de IA foi envolvido e quais são os direitos de apelação do paciente.
A governança correta não é um obstáculo para a promessa da IA na saúde. É o caminho para isso.