Buracos na Regulação de IA em Saúde
Com o uso da inteligência artificial se tornando mais comum em ambientes de saúde, especialistas estão pedindo por regulações mais rígidas em torno dessa tecnologia.
Nos últimos anos, a IA se tornou uma ferramenta popular tanto em pesquisas médicas quanto em ambientes clínicos. No entanto, a estrutura regulatória atual para a aprovação de dispositivos médicos não se aplica bem a dispositivos modernos baseados em IA.
Desafios da Estrutura Atual
Atualmente, o caminho de aprovação para dispositivos, conhecido como 510(k), é utilizado para cerca de 98% de todos os dispositivos habilitados por IA. Este processo foi desenvolvido para dispositivos médicos tradicionais e permite que produtos similares a opções já existentes no mercado sejam aprovados com menos evidências de eficácia e segurança.
O problema surge quando um dispositivo de IA é implementado, pois seu desempenho pode mudar ao longo do tempo e variar entre locais, levando ao que é conhecido como “desvio”. A atual estrutura regulatória carece de infraestrutura para garantir que um sistema de IA funcione adequadamente no local em que é implantado.
Propostas de Melhoria
Especialistas sugerem a necessidade de uma estrutura mais abrangente e robusta para garantir que as ferramentas de IA sejam devidamente treinadas e testadas antes de serem consideradas para prática independente. Uma proposta inclui um modelo de supervisão que leva a uma autonomia graduada, semelhante ao processo que um humano enfrentaria ao se aproximar da prática independente.
Além disso, algumas instituições devem adotar seus próprios processos de governança de IA para determinar o nível apropriado de avaliação e transparência, independentemente dos requisitos em nível federal ou estadual.
Regulamentação Federal e Local
Em nível federal, defende-se uma estrutura centrada na FDA que inclua parcerias com conselhos médicos estaduais. A regulação local também é necessária para acompanhar o ritmo dos desenvolvimentos tecnológicos, já que o governo federal pode não estar preparado para lidar com cada atualização ou nova prática que surja.
No estado da Pensilvânia, foi introduzida uma legislação que exige transparência de seguradoras, hospitais e clínicos nas situações em que a IA é utilizada. O objetivo é garantir que uma avaliação individualizada seja feita por um humano e que a discriminação e o viés sejam minimizados em seu uso.
Conclusão
Os especialistas consideram essas propostas um bom começo, mas enfatizam que é importante abordar a regulação dos dispositivos de suporte à decisão, que não parece estar adequadamente coberta pela legislação atual.