Panorama Regulatorio para la MedTech habilitada por IA en APAC
La regulación de la inteligencia artificial (IA) en la región de Asia-Pacífico (APAC) sigue siendo incipiente, mayormente gobernada por marcos regulatorios existentes diseñados para otras tecnologías y productos. Este es un proceso en curso.
Las técnicas de IA – aprendizaje automático (ML), aprendizaje profundo y procesamiento de lenguaje natural – son transformadoras y se utilizan cada vez más. Sin embargo, presentan desafíos y preocupaciones, tales como sesgo y discriminación, contenido falso y desinformación, privacidad y seguridad, cuestiones éticas y consecuencias no intencionadas.
¿Cómo están respondiendo los reguladores? A continuación, se presenta un resumen del progreso que se está realizando en APAC, Europa y América del Norte. Esta información se basa en un seminario web de Med APAC realizado el 25 de marzo y una mesa redonda organizada por Vivli el 16 de abril en Tokio.
Asia-Pacífico
En toda la región, actualmente no existe una ley general que rija la IA, pero esto cambiará en los próximos meses.
- China: El Congreso Nacional del Pueblo ha instado al Consejo de Estado a redactar un estatuto general. El sistema regulatorio actual consiste principalmente en regulaciones administrativas y estándares.
- Japón: La regulación de la IA ocurre a nivel de sector en las industrias relevantes. En los sectores de salud y ciencias de la vida, existen leyes para regular herramientas habilitadas por IA/ML, como la Ley de Infraestructura Médica de Nueva Generación de 2023, que facilita el uso de la IA en la investigación y desarrollo de herramientas de diagnóstico médico habilitadas por IA.
- Australia: La intención del gobierno es adoptar un enfoque basado en principios o en listas para definir la IA de alto riesgo, similar al de la UE.
- Singapur: Existen marcos para guiar el despliegue de la IA y promover su uso responsable, que incluyen principios éticos y de gobernanza clave, así como pruebas estandarizadas para validar la adopción de esos principios. La Estrategia Nacional de Inteligencia Artificial 2.0 de Singapur traza su compromiso con la construcción de un ecosistema de IA confiable y responsable, mientras que las Directrices de IA en Salud tienen como objetivo mejorar la comprensión, codificar buenas prácticas y apoyar el crecimiento seguro de la IA en la atención médica.
- Corea del Sur: La Ley de Productos Médicos Digitales (enero de 2025) proporciona la base para un marco regulatorio que rige los dispositivos médicos digitales. Además, la Ley Básica de IA (diciembre de 2024) entrará en vigor el 22 de enero de 2026 y se aplicará a cualquier actividad de IA que impacte el mercado local, independientemente de su origen. Clasifica la IA según el riesgo.
Europa
La Ley de IA de la Unión Europea (2024) establece reglas armonizadas sobre IA y es la primera legislación general sobre IA. Se aplica a todos los sistemas de IA que se comercializan o se ponen en servicio en la UE, categorizándolos en cuatro niveles de riesgo, desde inaceptablemente alto hasta mínimo. Los dispositivos médicos que incorporan funciones habilitadas por IA/ML probablemente serán clasificados como de alto riesgo.
La Ley de IA establece obligaciones específicas para los sistemas de IA de alto riesgo, muchas de las cuales se superponen con los procedimientos existentes requeridos bajo la Regulación de Dispositivos Médicos (MDR) y la Regulación de Dispositivos Médicos de In Vitro (IVDR). Estas se centran en la evaluación y mitigación de riesgos, cumplimiento, mantenimiento de registros, supervisión de ciberseguridad y otras buenas prácticas.
Estados Unidos
En la actualidad, Estados Unidos no tiene una ley específica sobre IA y la Administración de Alimentos y Medicamentos (FDA) no cuenta con un marco regulatorio establecido que rija los productos médicos habilitados por IA. Esto significa que si un producto habilitado por IA/ML cumple con la definición de «dispositivo médico», la FDA lo regulará como «Software como Dispositivo Médico» (SaMD) bajo su marco regulatorio tradicional para dispositivos médicos.
Dado que la estructura regulatoria tradicional de la FDA no está diseñada para tecnología adaptativa habilitada por IA/ML, ha adoptado un enfoque flexible para la regulación que facilite la innovación mientras equilibra la seguridad y la eficacia. Las consideraciones clave incluyen aplicar buenas prácticas de aprendizaje automático (GMLPs) en el desarrollo, documentar cambios, transparencia y monitorear datos de rendimiento del mundo real para comprender completamente el uso del producto e identificar problemas en una etapa temprana.
La FDA está coordinando con Health Canada y la Agencia Reguladora de Medicamentos y Productos Sanitarios del Reino Unido (MHRA) para desarrollar GMLPs armonizadas internacionalmente que se basen en un conjunto acordado de principios rectores. Este compromiso fue reafirmado en marzo de 2025 y destaca la visión compartida de estos reguladores para adaptar procesos y estándares que apoyen la innovación mientras garantizan la seguridad del paciente en este campo.