Paisagem Regulatória da MedTech com IA na APAC

Panorama Regulatório para MedTech com Inteligência Artificial na APAC

A regulação da inteligência artificial (IA) na região da Ásia-Pacífico (APAC) ainda é incipiente, sendo predominantemente governada por estruturas regulatórias existentes projetadas para outras tecnologias e produtos. Este cenário está em constante evolução.

Técnicas de IA – aprendizado de máquina (ML), aprendizado profundo e processamento de linguagem natural – são transformadoras e cada vez mais utilizadas. No entanto, apresentam desafios e preocupações, como preconceitos e discriminação, conteúdo falso e desinformação, privacidade e segurança, questões éticas e consequências não intencionais.

Como os Reguladores Estão Respondendo?

A seguir, uma visão geral do progresso em andamento na APAC, Europa e América do Norte, com base em um webinar Med APAC realizado em 25 de março e uma mesa-redonda organizada pela Vivli em Tóquio em 16 de abril.

Ásia-Pacífico

Atualmente, não existe uma lei abrangente para governar a IA na APAC, mas isso deve mudar nos próximos meses.

  • China: O Congresso Nacional do Povo instou o Conselho de Estado a elaborar um estatuto abrangente. O sistema regulatório atual consiste principalmente em regulamentos e normas administrativas.
  • Japão: A regulação da IA ocorre em nível setorial em indústrias relevantes. Na saúde e ciências da vida, existem leis que regulam ferramentas habilitadas por IA/ML, como a Lei de Infraestrutura Médica de Nova Geração de 2023, que facilita o uso de IA na pesquisa e desenvolvimento de ferramentas diagnósticas médicas habilitadas por IA.
  • Austrália: A intenção do governo é adotar uma abordagem baseada em princípios ou lista para definir IA de “alto risco”, semelhante à da UE.
  • Cingapura: Estruturas estão em vigor para orientar a implantação de IA e promover o uso responsável da IA, incluindo princípios éticos e de governança, e testes padronizados para validar a adoção desses princípios. A Estratégia Nacional de Inteligência Artificial 2.0 mapeia o compromisso de Cingapura em construir um ecossistema de IA confiável e responsável.
  • Coreia do Sul: A Lei de Produtos Médicos Digitais (janeiro de 2025) estabelece a base para um quadro regulatório que governa dispositivos médicos digitais. Além disso, a Lei Básica de IA (dezembro de 2024) entrará em vigor em 22 de janeiro de 2026 e se aplicará a quaisquer atividades de IA que impactem o mercado local.

Europa

A Lei de IA da União Europeia (2024) estabelece regras harmonizadas sobre IA e é a primeira legislação abrangente sobre IA. Ela se aplica a todos os sistemas de IA colocados no mercado ou colocados em serviço na UE, categorizando-os em quatro níveis de risco, desde inaceitavelmente alto até mínimo. Dispositivos médicos que incorporam funções habilitadas por IA/ML provavelmente serão classificados como de alto risco.

A Lei de IA estabelece obrigações específicas para sistemas de IA de alto risco, muitas das quais se sobrepõem a procedimentos existentes exigidos sob o Regulamento de Dispositivos Médicos (MDR) e o Regulamento de Dispositivos Médicos de In Vitro (IVDR). Esses procedimentos incluem avaliação de risco e mitigação, conformidade, manutenção de registros, supervisão, cibersegurança e outras boas práticas.

Estados Unidos

Atualmente, não existe uma lei específica sobre IA nos EUA, e a Administração de Alimentos e Medicamentos (FDA) não possui um quadro regulatório distinto para produtos médicos habilitados por IA. Isso significa que, se um produto habilitado por IA/ML atender à definição de “dispositivo médico”, o FDA o regulará como “Software como Dispositivo Médico” (SaMD) sob sua estrutura regulatória tradicional.

Como a estrutura regulatória tradicional do FDA não foi projetada para tecnologia adaptativa habilitada por IA/ML, a agência adotou uma abordagem flexível para a regulação, visando facilitar a inovação enquanto equilibra segurança e eficácia. Considerações chave incluem a aplicação de boas práticas de aprendizado de máquina (GMLPs) no desenvolvimento, documentação de alterações, transparência e monitoramento de dados de desempenho no mundo real.

O FDA está coordenando com a Saúde Canadá e a Agência de Produtos Medicinais e de Saúde do Reino Unido (MHRA) para desenvolver GMLPs internacionalmente harmonizados, baseando-se em um conjunto acordado de princípios orientadores. Este compromisso foi reafirmado em março de 2025, destacando a visão compartilhada desses reguladores de adaptar processos e padrões que apoiem a inovação, garantindo a segurança do paciente nesse campo.

More Insights

Governança da IA na Economia de Zero Confiança

Em 2025, a governança da IA deve alinhar-se com a mentalidade de "nunca confie, sempre verifique" da economia de zero confiança. Isso significa que a governança não deve ser vista como um obstáculo à...

A Segurança da IA como Catalisador para Inovação em Países em Desenvolvimento

Investimentos em segurança e proteção da IA não devem ser vistos como obstáculos, mas sim como facilitadores da inovação sustentável e do desenvolvimento a longo prazo, especialmente em países da...

Rumo à Governança da IA no ASEAN

Quando se trata de IA, a ASEAN adota uma abordagem de governança baseada em consenso. Este modelo voluntário e baseado em princípios pode ser uma solução temporária, mas corre o risco de fragmentação...

Implementação Ética da IA na Ucrânia

Em junho, 14 empresas de TI ucranianas criaram uma organização de autorregulamentação para apoiar abordagens éticas na implementação da inteligência artificial na Ucrânia. As empresas se comprometeram...

A Itália Aprova Lei Abrangente de IA Focada em Privacidade e Segurança

O Parlamento da Itália aprovou uma nova lei sobre inteligência artificial, tornando-se o primeiro país da União Europeia com regulamentações abrangentes. A legislação estabelece princípios centrais de...