La industria farmacéutica avanza en inteligencia artificial, pero la gobernanza lucha por mantenerse al día
El uso de la inteligencia artificial (IA) en el desarrollo farmacéutico se está convirtiendo en algo común, pero las regulaciones aún están en proceso de definición.
Un informe indica que el 71% de las empresas en diversas industrias ahora utilizan IA generativa, siendo las ciencias de la vida uno de los sectores que más rápido adopta esta tecnología. Sin embargo, solo el 53% de estas empresas mitiga activamente los riesgos asociados a la IA.
Esta brecha genera inquietud, ya que las empresas farmacéuticas implementan sistemas autónomos en investigación y desarrollo (I+D) y en fabricación, al mismo tiempo que construyen sus marcos de gobernanza.
Vulnerabilidades operativas
Los sistemas de IA introducen riesgos que los marcos de calidad farmacéutica tradicionales no están diseñados para abordar. El deslizamiento del modelo a menudo ocurre cuando las proyecciones de IA se vuelven inexactas con el tiempo, ya que los datos de entrenamiento se desvían de las condiciones de producción primarias. Para el descubrimiento de fármacos, esto puede significar que compuestos señalados como prometedores se basen en conjuntos de datos obsoletos. En la fabricación, esto puede resultar en algoritmos de control de calidad que no detecten anormalidades en el proceso.
La fuga de datos entre empresas de investigación contratadas y socios de fabricación crea otra capa de exposición. Los modelos propietarios entrenados con datos de ensayos clínicos pueden exponer inadvertidamente información de pacientes o propiedad intelectual al compartirse a través de fronteras estructurales. Sin controles estrictos de procedencia, las empresas farmacéuticas pierden visibilidad sobre cómo se utilizan sus datos y si los modelos cumplen con las regulaciones de privacidad.
El riesgo añadido de sesgo sigue distorsionando los resultados. Las revisiones regulatorias identificaron casos donde los algoritmos impulsados por IA excluyeron sistemáticamente a ciertos grupos demográficos de los ensayos clínicos, comprometiendo tanto la conformidad regulatoria como la eficacia terapéutica.
Cumplimiento en acción
Los marcos regulatorios tienen un efecto profundo en cómo las empresas farmacéuticas abordan la gobernanza de la IA. La actualización ICH E6(R3), finalizada a principios de 2025, refuerza los requisitos para todos los sistemas informáticos utilizados en ensayos clínicos, incluida la IA. Se exige que se conserven los metadatos relevantes para el ensayo, lo que incluye las trazas de auditoría, para permitir la reconstrucción del curso de los eventos.
El documento de reflexión de la EMA sobre el uso de la IA en el ciclo de vida de los productos medicinales refuerza estas expectativas para los sistemas de aprendizaje automático, enfatizando que los solicitantes deben garantizar que los algoritmos, modelos, conjuntos de datos y tuberías de procesamiento de datos estén documentados de manera transparente y sean auditables.
Este cambio de postura ha acelerado cambios estructurales dentro de las organizaciones. Se ha reportado que el 13% de las empresas han creado roles dedicados a la gobernanza o gestión de riesgos de IA, reconociendo que la experiencia regulatoria debe coexistir con las capacidades técnicas. Están emergiendo centros de excelencia en IA como núcleos operativos donde científicos de datos, profesionales de asuntos regulatorios y equipos de aseguramiento de calidad trabajan juntos para validar modelos.
Preparación para el futuro
La próxima ola de riesgo operativo es clara. Un análisis de septiembre de 2025 enfatiza que a medida que la IA agente se integre en los flujos de trabajo, las empresas deben establecer marcos de gobernanza sólidos con responsabilidad clara, medidas preventivas para evitar consecuencias no deseadas y auditorías regulares para garantizar el cumplimiento. Los sistemas de IA autónomos pueden ejecutar flujos de trabajo complejos en I+D y fabricación sin supervisión humana, lo que acelera el descubrimiento y optimiza la producción, pero también crea vulnerabilidades.
Por lo tanto, los sistemas observables son esenciales. Cada decisión del agente debe ser registrada, cada fuente de datos validada y cada acción auditada. La monitorización continua debe convertirse en el estándar operativo, no en un pensamiento secundario. Las empresas farmacéuticas que construyan estas capacidades ahora estarán preparadas para la próxima década. Aquellos que pospongan enfrentarán costosas remedaciones cuando aumente el escrutinio regulatorio.
La responsabilidad del liderazgo sigue siendo el diferenciador. La seguridad de la IA no es un problema que pueda ser resuelto únicamente por equipos de ingeniería. Requiere ejecutivos que comprendan que la confianza, la validación y la transparencia son los fundamentos de la velocidad operativa.
Proteger a los pacientes, los datos y la innovación ya no son objetivos separados. Son prioridades interdependientes que definen cómo operan las empresas farmacéuticas en la economía de la inteligencia.