Governança da IA em Saúde: Desafios e Oportunidades

Primeiro, não causar dano: moldando a governança da IA em saúde em um cenário global em mudança

A paisagem regulatória da IA tem passado por mudanças monumentais nos últimos seis meses. O discurso que vê a regulamentação como uma barreira à inovação em IA, incluindo as oportunidades intersetoriais que oferece, especialmente para a saúde e ciências da vida, tem ganhado força.

Desde o outono passado, houve rumores de que os EUA mudariam sua abordagem em relação à regulamentação da IA. Recentemente, o presidente Donald J. Trump reverteu muitas das medidas da administração Biden rumo à regulamentação específica da IA. A União Europeia também abandonou inesperadamente seus esforços para adotar a proposta de Diretiva de Responsabilidade da IA, introduzindo o “programa de trabalho da Comissão 2025”, que sugere uma abordagem mais favorável à inovação.

O Reino Unido, por sua vez, adotou uma retórica pro-inovação em sua formulação de políticas de IA. No entanto, sua abordagem regulatória é caracteristicamente diferente da da UE e dos EUA, sem criar regulamentações específicas para IA ou adotar uma postura forte de desregulamentação para fomentar a inovação. Em vez disso, busca revisar e emendar legislações ou orientações existentes para apoiar os desenvolvedores de IA e proteger o público, além de introduzir medidas que fortalecem a capacidade de fiscalização dos reguladores.

Desafios da abordagem do Reino Unido

A abordagem do Reino Unido enfrenta desafios significativos. A revisão e aplicação da regulamentação existente à IA devem ser feitas com cuidado para evitar sobrecargas ou duplicações regulatórias. Isso requer garantir que os reguladores tenham a capacidade e expertise para avaliar e responder aos riscos novos apresentados pelas tecnologias de IA. A coordenação é essencial para evitar que desenvolvimentos prejudiciais “caiam entre as fissuras” desses diferentes regimes regulatórios.

O trabalho da PHG Foundation se concentra em como as leis e mecanismos regulatórios existentes podem ser melhor aplicados à IA. Em vez de multiplicar os frameworks, o que é necessário é um feedback melhor sobre como esses frameworks estão sendo implementados e como podemos melhorar seu uso na prática.

Governança e responsabilidade na IA médica: quem é responsável quando a IA falha?

À medida que as ferramentas de IA na saúde começam a superar os humanos em certas tarefas, encontrar o equilíbrio certo entre a autonomia da IA e a supervisão humana se torna cada vez mais complexo. Questões de responsabilidade e liabilidade, especialmente quando ocorre dano, estão agora em evidência para reguladores, desenvolvedores e clínicos.

Para desvendar esses desafios, a PHG Foundation e o Centro de Direito, Medicina e Ciências da Vida exploraram como múltiplos regimes regulatórios se intersectam – incluindo a legislação de dispositivos médicos, o Ato de IA da UE, proteção de dados e a legislação sobre negligência e responsabilidade por produtos. Um workshop realizado em novembro reuniu especialistas para discutir como as responsabilidades e as responsabilidades são atualmente alocadas entre os desenvolvedores, implantadores e usuários de IA médica – e onde estão as lacunas e sobreposições. As discussões geraram uma riqueza de insights e um conjunto de perguntas urgentes para os formuladores de políticas, pesquisadores e reguladores que trabalham para construir um marco claro e coerente para a responsabilidade na IA médica.

Dados de saúde sintéticos

Os dados sintéticos têm um potencial significativo para avançar o desenvolvimento e a implantação de Inteligência Artificial como Dispositivo Médico (AIaMD), especialmente em áreas onde os dados do mundo real são limitados, sensíveis ou custosos de obter. Embora as orientações existentes forneçam uma forte base, o uso de dados sintéticos – especialmente quando formam uma parte central da base de evidências em submissões regulatórias – requer clareza adicional.

Reconhecendo isso, estamos colaborando ativamente com parceiros que estão desenvolvendo princípios orientadores para facilitar o diálogo entre fabricantes e órgãos de aprovação. A esperança é oferecer uma abordagem estruturada para ajudar os fabricantes a considerar, compilar e justificar seu uso de dados sintéticos no desenvolvimento de AIaMD. Isso apoia nosso objetivo maior de garantir que as expectativas regulatórias acompanhem a velocidade da inovação e reforcem o uso responsável de dados sintéticos em benefício da saúde do paciente.

Desafios para a supervisão pós-mercado da IA médica

A IA também apresenta desafios para a regulamentação de dispositivos médicos uma vez que estão em uso, devido ao potencial de mudanças que podem afetar sua segurança e desempenho. A abordagem inovadora e colaborativa adotada pela MHRA através do programa AI Airlock utiliza produtos do mundo real e expertise multidisciplinar para identificar e abordar os novos desafios regulatórios apresentados pela IA. Para apoiar isso, realizamos um workshop em março que reuniu especialistas clínicos, técnicos, de políticas, legais e regulatórios para gerar compreensão e ideias em torno das necessidades de monitoramento e relatório para a IA como parte da supervisão pós-mercado de dispositivos médicos.

Temas importantes nos projetos

  • A regulamentação ágil e o alinhamento internacional são essenciais: com as capacidades da IA acelerando mais rápido do que nossos mecanismos de segurança atuais podem se adaptar, os reguladores devem estar preparados para responder dinamicamente. Isso inclui não apenas esforços nacionais, mas também um maior alinhamento regulatório entre fronteiras. Os governos devem encontrar mais terreno comum, especialmente onde a IA se cruza com domínios de alto risco como a saúde. A decisão do Reino Unido de não assinar o acordo internacional sobre IA na Cúpula Global de IA de 2025 em Paris aumenta implicitamente a urgência de evitar a fragmentação regulatória.
  • Preocupações regulatórias e éticas não desapareceram: elas simplesmente não são a narrativa dominante no momento. Embora os cúpulas anteriores tenham se concentrado fortemente na segurança, a deste ano enfatizou fortemente a inovação. Esperamos, no entanto, que com essa ênfase renovada na inovação, os riscos associados logo reemergirão de forma mais visível – nos empurrando de volta para uma posição mais equilibrada que leve as preocupações de segurança a sério. Especialmente no contexto da saúde, essas questões não podem ser ignoradas. Manter a confiança do público é essencial para evitar retrocessos e antecipar potenciais danos é crítico para preveni-los.
  • Recursos: É importante garantir que os reguladores tenham os recursos e a expertise para acompanhar as tecnologias em rápida evolução que se enquadram no guarda-chuva da “IA”. Uma melhor coordenação é necessária – tanto entre os domínios regulatórios quanto em nível internacional – para criar uma governança coerente, responsiva e pronta para o futuro. Mudanças globais recentes sinalizam um movimento em direção a abordagens pro-inovação, mas isso não deve ocorrer à custa da segurança, confiança pública e supervisão ética, especialmente em áreas de alto risco como a saúde.

Estamos trabalhando com uma variedade de parceiros nesse delicado ato de equilíbrio, para promover a adoção responsável de tecnologias de IA que não apenas sejam inovadoras, mas também eficazes, seguras e que realmente melhorem os resultados para os pacientes.

More Insights

Governo Britânico Sob Crítica pela Implementação de Reconhecimento Facial

O governo do Reino Unido tem sido criticado pela implementação de tecnologia de reconhecimento facial sem um quadro legal abrangente. O Instituto Ada Lovelace alertou que o uso crescente do...

A Explosão de Startups de Governança na Era da Inteligência Artificial

Com o crescimento da tecnologia de inteligência artificial (IA), as soluções de governança estão em alta demanda. A indústria global de governança de IA, avaliada em 890 milhões de dólares no ano...

O Papel dos Tribunais na Regulação da Inteligência Artificial

A regulação da inteligência artificial (IA) é desigual em todo o mundo, com algumas jurisdições já possuindo regulamentações abrangentes, enquanto outras resistem à legislação vinculativa. Os...

A Liderança Legal na Governança da IA: Agindo Antes que seja Tarde

Neste artigo da Help Net Security, Brooke Johnson, Conselheira Jurídica Chefe da Ivanti, discute as responsabilidades legais na governança da IA e a importância da colaboração entre departamentos para...

Mudança nas Regras da IA: Implicações e Desafios

A Câmara dos Representantes recentemente aprovou um grande projeto de lei que impede os estados de regular modelos de inteligência artificial por 10 anos. Isso preocupa os legisladores estaduais, que...