Buracos na regulamentação federal de IA na saúde precisam ser corrigidos

Buracos na Regulação de IA em Saúde

Com o uso da inteligência artificial se tornando mais comum em ambientes de saúde, especialistas estão pedindo por regulações mais rígidas em torno dessa tecnologia.

Nos últimos anos, a IA se tornou uma ferramenta popular tanto em pesquisas médicas quanto em ambientes clínicos. No entanto, a estrutura regulatória atual para a aprovação de dispositivos médicos não se aplica bem a dispositivos modernos baseados em IA.

Desafios da Estrutura Atual

Atualmente, o caminho de aprovação para dispositivos, conhecido como 510(k), é utilizado para cerca de 98% de todos os dispositivos habilitados por IA. Este processo foi desenvolvido para dispositivos médicos tradicionais e permite que produtos similares a opções já existentes no mercado sejam aprovados com menos evidências de eficácia e segurança.

O problema surge quando um dispositivo de IA é implementado, pois seu desempenho pode mudar ao longo do tempo e variar entre locais, levando ao que é conhecido como “desvio”. A atual estrutura regulatória carece de infraestrutura para garantir que um sistema de IA funcione adequadamente no local em que é implantado.

Propostas de Melhoria

Especialistas sugerem a necessidade de uma estrutura mais abrangente e robusta para garantir que as ferramentas de IA sejam devidamente treinadas e testadas antes de serem consideradas para prática independente. Uma proposta inclui um modelo de supervisão que leva a uma autonomia graduada, semelhante ao processo que um humano enfrentaria ao se aproximar da prática independente.

Além disso, algumas instituições devem adotar seus próprios processos de governança de IA para determinar o nível apropriado de avaliação e transparência, independentemente dos requisitos em nível federal ou estadual.

Regulamentação Federal e Local

Em nível federal, defende-se uma estrutura centrada na FDA que inclua parcerias com conselhos médicos estaduais. A regulação local também é necessária para acompanhar o ritmo dos desenvolvimentos tecnológicos, já que o governo federal pode não estar preparado para lidar com cada atualização ou nova prática que surja.

No estado da Pensilvânia, foi introduzida uma legislação que exige transparência de seguradoras, hospitais e clínicos nas situações em que a IA é utilizada. O objetivo é garantir que uma avaliação individualizada seja feita por um humano e que a discriminação e o viés sejam minimizados em seu uso.

Conclusão

Os especialistas consideram essas propostas um bom começo, mas enfatizam que é importante abordar a regulação dos dispositivos de suporte à decisão, que não parece estar adequadamente coberta pela legislação atual.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...