Modelo de Comportamiento: Guía sobre Buenas Prácticas de IA en el Desarrollo de Medicamentos
La Administración de Alimentos y Medicamentos de EE. UU. (FDA) y la Agencia Europea de Medicamentos (EMA) han emitido una declaración conjunta que detalla 10 “Principios Rectores” para el uso de la inteligencia artificial (IA) en el desarrollo de medicamentos.
Lo que se Publicó
La declaración establece 10 principios sobre cómo se debe diseñar, utilizar y gestionar la IA cuando genera o analiza evidencia en el desarrollo de medicamentos. Según el comunicado de la FDA, esto permitirá realizar plenamente el potencial de la IA, garantizando la fiabilidad de la información para asegurar la seguridad del paciente y la excelencia regulatoria. Los principios son esenciales para abordar “los desafíos y consideraciones únicos de las aplicaciones de IA en el desarrollo de medicamentos”.
Importancia para las Interacciones con la FDA y la EMA
La FDA y la EMA se centran en si la evidencia detrás de las decisiones es fiable y completa. Aunque los nuevos principios no cambian la ley existente, las agencias afirman que se alinean con lo que los reguladores ya utilizan en la práctica. La declaración aclara que los patrocinadores y sus socios deben esperar preguntas de los reguladores sobre cómo y de dónde se genera la data, cómo se procesa y cómo se prueba el modelo para demostrar que funciona para su propósito previsto.
Los 10 Principios en Términos Sencillos
Los 10 principios se dividen en cinco temas generales:
- Diseño Centrado en el Humano
La IA debe ser construida y utilizada de manera que refleje los valores éticos y humanos. Los patrocinadores y sus socios deben anticipar cómo la tecnología de IA puede afectar a los pacientes y usuarios, y construir protecciones desde el inicio.
- Control Basado en Riesgos
Cada uso de IA debe tener un contexto claro que explique qué hace y cómo se utilizarán sus resultados. Las decisiones deben basarse en el nivel de riesgo que plantea el modelo, ajustando las pruebas, salvaguardias y supervisión a ese nivel de riesgo.
- Alineación con Normas y la Experiencia Adecuada
El trabajo de IA debe seguir normas legales, éticas, técnicas, científicas, de ciberseguridad y regulatorias aplicables, incluyendo Buenas Prácticas Clínicas y de Manufactura.
- Prácticas de Datos y Modelos Sólidas
Los patrocinadores y sus socios deben rastrear y documentar las fuentes de datos, pasos de procesamiento y elecciones analíticas de manera detallada, verificable y con protecciones de privacidad adecuadas.
- Evaluación Rigurosa y Control del Ciclo de Vida
La evaluación del rendimiento debe considerar el sistema completo, incluyendo cómo las personas interactúan con la IA en flujos de trabajo del mundo real. La comunicación clara con los usuarios y otros interesados es esencial.
Ajuste con los Requisitos Existentes de la FDA y la EMA
Estos principios se integran dentro de los marcos que la FDA y la EMA ya utilizan para evaluar la integridad de los datos, la calidad del producto y la seguridad del paciente. El enfoque en una buena documentación refleja las expectativas de trazabilidad y auditabilidad.
La atención a la ciberseguridad y la privacidad coincide con los requisitos actuales para proteger sistemas y datos sensibles. Dado que los principios se encuentran dentro de estos marcos familiares, la FDA y la EMA los utilizarán sin necesidad de nuevas reglas, ya que pueden implementarse a través de procesos y controles existentes.