Panorama Regulatorio de la IA en MedTech en APAC

Panorama Regulatorio para la MedTech habilitada por IA en APAC

La regulación de la inteligencia artificial (IA) en la región de Asia-Pacífico (APAC) sigue siendo incipiente, mayormente gobernada por marcos regulatorios existentes diseñados para otras tecnologías y productos. Este es un proceso en curso.

Las técnicas de IA – aprendizaje automático (ML), aprendizaje profundo y procesamiento de lenguaje natural – son transformadoras y se utilizan cada vez más. Sin embargo, presentan desafíos y preocupaciones, tales como sesgo y discriminación, contenido falso y desinformación, privacidad y seguridad, cuestiones éticas y consecuencias no intencionadas.

¿Cómo están respondiendo los reguladores? A continuación, se presenta un resumen del progreso que se está realizando en APAC, Europa y América del Norte. Esta información se basa en un seminario web de Med APAC realizado el 25 de marzo y una mesa redonda organizada por Vivli el 16 de abril en Tokio.

Asia-Pacífico

En toda la región, actualmente no existe una ley general que rija la IA, pero esto cambiará en los próximos meses.

  • China: El Congreso Nacional del Pueblo ha instado al Consejo de Estado a redactar un estatuto general. El sistema regulatorio actual consiste principalmente en regulaciones administrativas y estándares.
  • Japón: La regulación de la IA ocurre a nivel de sector en las industrias relevantes. En los sectores de salud y ciencias de la vida, existen leyes para regular herramientas habilitadas por IA/ML, como la Ley de Infraestructura Médica de Nueva Generación de 2023, que facilita el uso de la IA en la investigación y desarrollo de herramientas de diagnóstico médico habilitadas por IA.
  • Australia: La intención del gobierno es adoptar un enfoque basado en principios o en listas para definir la IA de alto riesgo, similar al de la UE.
  • Singapur: Existen marcos para guiar el despliegue de la IA y promover su uso responsable, que incluyen principios éticos y de gobernanza clave, así como pruebas estandarizadas para validar la adopción de esos principios. La Estrategia Nacional de Inteligencia Artificial 2.0 de Singapur traza su compromiso con la construcción de un ecosistema de IA confiable y responsable, mientras que las Directrices de IA en Salud tienen como objetivo mejorar la comprensión, codificar buenas prácticas y apoyar el crecimiento seguro de la IA en la atención médica.
  • Corea del Sur: La Ley de Productos Médicos Digitales (enero de 2025) proporciona la base para un marco regulatorio que rige los dispositivos médicos digitales. Además, la Ley Básica de IA (diciembre de 2024) entrará en vigor el 22 de enero de 2026 y se aplicará a cualquier actividad de IA que impacte el mercado local, independientemente de su origen. Clasifica la IA según el riesgo.

Europa

La Ley de IA de la Unión Europea (2024) establece reglas armonizadas sobre IA y es la primera legislación general sobre IA. Se aplica a todos los sistemas de IA que se comercializan o se ponen en servicio en la UE, categorizándolos en cuatro niveles de riesgo, desde inaceptablemente alto hasta mínimo. Los dispositivos médicos que incorporan funciones habilitadas por IA/ML probablemente serán clasificados como de alto riesgo.

La Ley de IA establece obligaciones específicas para los sistemas de IA de alto riesgo, muchas de las cuales se superponen con los procedimientos existentes requeridos bajo la Regulación de Dispositivos Médicos (MDR) y la Regulación de Dispositivos Médicos de In Vitro (IVDR). Estas se centran en la evaluación y mitigación de riesgos, cumplimiento, mantenimiento de registros, supervisión de ciberseguridad y otras buenas prácticas.

Estados Unidos

En la actualidad, Estados Unidos no tiene una ley específica sobre IA y la Administración de Alimentos y Medicamentos (FDA) no cuenta con un marco regulatorio establecido que rija los productos médicos habilitados por IA. Esto significa que si un producto habilitado por IA/ML cumple con la definición de «dispositivo médico», la FDA lo regulará como «Software como Dispositivo Médico» (SaMD) bajo su marco regulatorio tradicional para dispositivos médicos.

Dado que la estructura regulatoria tradicional de la FDA no está diseñada para tecnología adaptativa habilitada por IA/ML, ha adoptado un enfoque flexible para la regulación que facilite la innovación mientras equilibra la seguridad y la eficacia. Las consideraciones clave incluyen aplicar buenas prácticas de aprendizaje automático (GMLPs) en el desarrollo, documentar cambios, transparencia y monitorear datos de rendimiento del mundo real para comprender completamente el uso del producto e identificar problemas en una etapa temprana.

La FDA está coordinando con Health Canada y la Agencia Reguladora de Medicamentos y Productos Sanitarios del Reino Unido (MHRA) para desarrollar GMLPs armonizadas internacionalmente que se basen en un conjunto acordado de principios rectores. Este compromiso fue reafirmado en marzo de 2025 y destaca la visión compartida de estos reguladores para adaptar procesos y estándares que apoyen la innovación mientras garantizan la seguridad del paciente en este campo.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...