Guía de Principios para el Uso Ético de IA en el Desarrollo de Medicamentos

Modelo de Comportamiento: Guía sobre Buenas Prácticas de IA en el Desarrollo de Medicamentos

La Administración de Alimentos y Medicamentos de EE. UU. (FDA) y la Agencia Europea de Medicamentos (EMA) han emitido una declaración conjunta que detalla 10 “Principios Rectores” para el uso de la inteligencia artificial (IA) en el desarrollo de medicamentos.

Lo que se Publicó

La declaración establece 10 principios sobre cómo se debe diseñar, utilizar y gestionar la IA cuando genera o analiza evidencia en el desarrollo de medicamentos. Según el comunicado de la FDA, esto permitirá realizar plenamente el potencial de la IA, garantizando la fiabilidad de la información para asegurar la seguridad del paciente y la excelencia regulatoria. Los principios son esenciales para abordar “los desafíos y consideraciones únicos de las aplicaciones de IA en el desarrollo de medicamentos”.

Importancia para las Interacciones con la FDA y la EMA

La FDA y la EMA se centran en si la evidencia detrás de las decisiones es fiable y completa. Aunque los nuevos principios no cambian la ley existente, las agencias afirman que se alinean con lo que los reguladores ya utilizan en la práctica. La declaración aclara que los patrocinadores y sus socios deben esperar preguntas de los reguladores sobre cómo y de dónde se genera la data, cómo se procesa y cómo se prueba el modelo para demostrar que funciona para su propósito previsto.

Los 10 Principios en Términos Sencillos

Los 10 principios se dividen en cinco temas generales:

  1. Diseño Centrado en el Humano

    La IA debe ser construida y utilizada de manera que refleje los valores éticos y humanos. Los patrocinadores y sus socios deben anticipar cómo la tecnología de IA puede afectar a los pacientes y usuarios, y construir protecciones desde el inicio.

  2. Control Basado en Riesgos

    Cada uso de IA debe tener un contexto claro que explique qué hace y cómo se utilizarán sus resultados. Las decisiones deben basarse en el nivel de riesgo que plantea el modelo, ajustando las pruebas, salvaguardias y supervisión a ese nivel de riesgo.

  3. Alineación con Normas y la Experiencia Adecuada

    El trabajo de IA debe seguir normas legales, éticas, técnicas, científicas, de ciberseguridad y regulatorias aplicables, incluyendo Buenas Prácticas Clínicas y de Manufactura.

  4. Prácticas de Datos y Modelos Sólidas

    Los patrocinadores y sus socios deben rastrear y documentar las fuentes de datos, pasos de procesamiento y elecciones analíticas de manera detallada, verificable y con protecciones de privacidad adecuadas.

  5. Evaluación Rigurosa y Control del Ciclo de Vida

    La evaluación del rendimiento debe considerar el sistema completo, incluyendo cómo las personas interactúan con la IA en flujos de trabajo del mundo real. La comunicación clara con los usuarios y otros interesados es esencial.

Ajuste con los Requisitos Existentes de la FDA y la EMA

Estos principios se integran dentro de los marcos que la FDA y la EMA ya utilizan para evaluar la integridad de los datos, la calidad del producto y la seguridad del paciente. El enfoque en una buena documentación refleja las expectativas de trazabilidad y auditabilidad.

La atención a la ciberseguridad y la privacidad coincide con los requisitos actuales para proteger sistemas y datos sensibles. Dado que los principios se encuentran dentro de estos marcos familiares, la FDA y la EMA los utilizarán sin necesidad de nuevas reglas, ya que pueden implementarse a través de procesos y controles existentes.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...