Panorama Regulatorio de la IA en MedTech en APAC

Panorama Regulatorio para la MedTech habilitada por IA en APAC

La regulación de la inteligencia artificial (IA) en la región de Asia-Pacífico (APAC) sigue siendo incipiente, mayormente gobernada por marcos regulatorios existentes diseñados para otras tecnologías y productos. Este es un proceso en curso.

Las técnicas de IA – aprendizaje automático (ML), aprendizaje profundo y procesamiento de lenguaje natural – son transformadoras y se utilizan cada vez más. Sin embargo, presentan desafíos y preocupaciones, tales como sesgo y discriminación, contenido falso y desinformación, privacidad y seguridad, cuestiones éticas y consecuencias no intencionadas.

¿Cómo están respondiendo los reguladores? A continuación, se presenta un resumen del progreso que se está realizando en APAC, Europa y América del Norte. Esta información se basa en un seminario web de Med APAC realizado el 25 de marzo y una mesa redonda organizada por Vivli el 16 de abril en Tokio.

Asia-Pacífico

En toda la región, actualmente no existe una ley general que rija la IA, pero esto cambiará en los próximos meses.

  • China: El Congreso Nacional del Pueblo ha instado al Consejo de Estado a redactar un estatuto general. El sistema regulatorio actual consiste principalmente en regulaciones administrativas y estándares.
  • Japón: La regulación de la IA ocurre a nivel de sector en las industrias relevantes. En los sectores de salud y ciencias de la vida, existen leyes para regular herramientas habilitadas por IA/ML, como la Ley de Infraestructura Médica de Nueva Generación de 2023, que facilita el uso de la IA en la investigación y desarrollo de herramientas de diagnóstico médico habilitadas por IA.
  • Australia: La intención del gobierno es adoptar un enfoque basado en principios o en listas para definir la IA de alto riesgo, similar al de la UE.
  • Singapur: Existen marcos para guiar el despliegue de la IA y promover su uso responsable, que incluyen principios éticos y de gobernanza clave, así como pruebas estandarizadas para validar la adopción de esos principios. La Estrategia Nacional de Inteligencia Artificial 2.0 de Singapur traza su compromiso con la construcción de un ecosistema de IA confiable y responsable, mientras que las Directrices de IA en Salud tienen como objetivo mejorar la comprensión, codificar buenas prácticas y apoyar el crecimiento seguro de la IA en la atención médica.
  • Corea del Sur: La Ley de Productos Médicos Digitales (enero de 2025) proporciona la base para un marco regulatorio que rige los dispositivos médicos digitales. Además, la Ley Básica de IA (diciembre de 2024) entrará en vigor el 22 de enero de 2026 y se aplicará a cualquier actividad de IA que impacte el mercado local, independientemente de su origen. Clasifica la IA según el riesgo.

Europa

La Ley de IA de la Unión Europea (2024) establece reglas armonizadas sobre IA y es la primera legislación general sobre IA. Se aplica a todos los sistemas de IA que se comercializan o se ponen en servicio en la UE, categorizándolos en cuatro niveles de riesgo, desde inaceptablemente alto hasta mínimo. Los dispositivos médicos que incorporan funciones habilitadas por IA/ML probablemente serán clasificados como de alto riesgo.

La Ley de IA establece obligaciones específicas para los sistemas de IA de alto riesgo, muchas de las cuales se superponen con los procedimientos existentes requeridos bajo la Regulación de Dispositivos Médicos (MDR) y la Regulación de Dispositivos Médicos de In Vitro (IVDR). Estas se centran en la evaluación y mitigación de riesgos, cumplimiento, mantenimiento de registros, supervisión de ciberseguridad y otras buenas prácticas.

Estados Unidos

En la actualidad, Estados Unidos no tiene una ley específica sobre IA y la Administración de Alimentos y Medicamentos (FDA) no cuenta con un marco regulatorio establecido que rija los productos médicos habilitados por IA. Esto significa que si un producto habilitado por IA/ML cumple con la definición de «dispositivo médico», la FDA lo regulará como «Software como Dispositivo Médico» (SaMD) bajo su marco regulatorio tradicional para dispositivos médicos.

Dado que la estructura regulatoria tradicional de la FDA no está diseñada para tecnología adaptativa habilitada por IA/ML, ha adoptado un enfoque flexible para la regulación que facilite la innovación mientras equilibra la seguridad y la eficacia. Las consideraciones clave incluyen aplicar buenas prácticas de aprendizaje automático (GMLPs) en el desarrollo, documentar cambios, transparencia y monitorear datos de rendimiento del mundo real para comprender completamente el uso del producto e identificar problemas en una etapa temprana.

La FDA está coordinando con Health Canada y la Agencia Reguladora de Medicamentos y Productos Sanitarios del Reino Unido (MHRA) para desarrollar GMLPs armonizadas internacionalmente que se basen en un conjunto acordado de principios rectores. Este compromiso fue reafirmado en marzo de 2025 y destaca la visión compartida de estos reguladores para adaptar procesos y estándares que apoyen la innovación mientras garantizan la seguridad del paciente en este campo.

More Insights

Regulación de IA: Un llamado urgente del CII

El Instituto Chartered de Seguros (CII) ha solicitado marcos de responsabilidad claros y una estrategia de habilidades a nivel sectorial para guiar el uso de la inteligencia artificial (IA) en los...

Desarrollos en Inteligencia Artificial en Nueva York: Legislación Clave para Empleadores

En la primera parte de 2025, Nueva York se unió a otros estados para regular la inteligencia artificial (IA) a nivel estatal. Se introdujeron proyectos de ley que se centran en el uso de herramientas...

Estrategias de Gestión de Riesgos en Sistemas de Inteligencia Artificial

El artículo discute la importancia de gestionar los riesgos asociados con los sistemas de inteligencia artificial, destacando que el uso de datos erróneos puede llevar a resultados perjudiciales y...

Lo Que Debe Saber Sobre la Ley de Inteligencia Artificial de la UE

La Unión Europea ha introducido la Ley de Inteligencia Artificial (AI Act), una regulación histórica diseñada para gestionar los riesgos y oportunidades de las tecnologías de IA en Europa. Este...

La Ley Básica de IA en Corea: Un Nuevo Horizonte Regulatorio

Corea del Sur se ha posicionado a la vanguardia de la regulación de la inteligencia artificial en Asia con la aprobación de la Ley Básica de IA, que entrará en vigor en enero de 2026. Esta legislación...

Cumpliendo con el Acta de IA de la UE y DORA: Un Enfoque Financiero

El Acta de IA de la UE y DORA están transformando la manera en que las entidades financieras manejan el riesgo asociado con la inteligencia artificial. Es fundamental comprender cómo estas...

Regulación de la IA: Desafíos y Oportunidades en el Espacio Transatlántico

La inteligencia artificial (IA) se ha convertido en una de las fuerzas tecnológicas más trascendentales de la actualidad, con el potencial de transformar economías, sociedades y la naturaleza misma de...

La UE Impulsa la Estrategia de IA para Superar Barreras

La Comisión Europea ha presentado una nueva estrategia para promover la inteligencia artificial (IA) en Europa, buscando reducir las barreras para su implementación y mejorar la competitividad global...