FDA y EMA Proporcionan Principios Orientadores para la IA en el Desarrollo de Medicamentos
El 14 de enero de 2026, se publicaron conjuntamente los “Principios Orientadores de Buenas Prácticas de IA en el Desarrollo de Medicamentos”, un conjunto de 10 principios de alto nivel destinados a dirigir el uso seguro y responsable de la IA a lo largo del ciclo de vida del producto.
Aunque no son directrices formales de la industria, el documento ofrece importantes perspectivas sobre el pensamiento de las agencias en cuanto a la implementación de la IA durante el desarrollo de productos farmacéuticos y biológicos, y señala futuras orientaciones regulatorias de ambos organismos.
Principios de la IA en el Desarrollo de Medicamentos
Estos principios se publicaron en relación con los sistemas de IA utilizados para generar o analizar evidencia en las fases no clínicas, clínicas, de comercialización y de fabricación de medicamentos y biológicos. Las agencias enmarcan los principios como una base para futuras orientaciones, estándares y expectativas regulatorias armonizadas de reguladores internacionales, organizaciones de estándares internacionales y otros organismos colaborativos.
Las agencias enfatizan que la IA puede acelerar la innovación, reducir el tiempo de llegada al mercado, fortalecer la farmacovigilancia y disminuir la dependencia de pruebas en animales, manteniendo al mismo tiempo los estándares existentes de calidad, seguridad y eficacia. Sin embargo, para reconocer estos beneficios, el uso de la IA durante el desarrollo de productos farmacéuticos y biológicos debe seguir los 10 principios. Las ideas clave de esta lista incluyen:
- (1) diseño ético centrado en el ser humano;
- (2) desarrollo, implementación y evaluación de rendimiento basados en riesgos;
- (3) gobernanza de datos, gestión de documentos y ciberseguridad;
- (4) calidad de datos y gestión del ciclo de vida.
Implicaciones para la Industria Reguladora
Los principios delinean efectivamente una lista de verificación de gobernanza que los reguladores esperan que los desarrolladores sigan, pero no proporcionan instrucciones concretas y prácticas para demostrar cumplimiento. Esto deja a los desarrolladores la tarea de interpretar cómo aplicar estos conceptos amplios en la práctica mientras esperan recomendaciones más específicas de las agencias.
En este contexto, las empresas deben desarrollar y reevaluar sus marcos de gobernanza de IA, enfocándose en pasos tangibles, que incluyen:
- (1) establecer un órgano de gobernanza formal y multifuncional;
- (2) implementar un enfoque basado en riesgos para categorizar herramientas de IA y determinar niveles apropiados de validación;
- (3) asegurar una documentación robusta a lo largo del ciclo de vida de la IA (por ejemplo, procedencia de datos, selección de modelos e informes de validación);
- (4) involucrar a los reguladores de manera temprana a través de reuniones previas a la presentación para alinear expectativas sobre sistemas de IA novedosos.
Además, los patrocinadores que participen proactivamente con los reguladores en reuniones previas a la presentación sobre expectativas y alineación, o aquellos sistemas ya en uso, deben reevaluar sus actuales marcos de gobernanza de IA con estos principios para estar mejor posicionados en las interacciones regulatorias.