Regulación de Ensayos Clínicos con Inteligencia Artificial

La regulación de ensayos clínicos en los que se despliega IA

Las empresas que desarrollan productos farmacéuticos o biotecnológicos utilizando IA en cualquier proximidad a sus ensayos clínicos, ya sea en el diseño del ensayo o su administración, reclutamiento de pacientes, dispositivos o IVDs utilizados en el ensayo, creación y uso de datos sintéticos, o para el análisis de datos, deben tener en cuenta que las consecuencias de esos usos probablemente serán de interés para los reguladores tanto con respecto al propio ensayo como a los sujetos involucrados y a los resultados utilizados en las solicitudes de autorización.

Aunque la Ley de IA no es aplicable a ciertos usos de investigación de IA, estas exclusiones brindan poco o ningún consuelo a los usos de IA en ensayos clínicos, donde una miríada de regulaciones y directrices tiene potencial aplicación.

Datos, datos por todas partes – ¿se pueden usar?

La IA puede ser una herramienta increíble para ordenar y analizar datos clínicos, e incluso pacientes. La construcción de ensayos clínicos y la creación y análisis de datos resultantes son partes críticas del desarrollo de productos, alimentando el proceso regulatorio para la autorización de productos farmacéuticos/biotecnológicos. Para que los reguladores confíen en los ensayos clínicos en los que se despliega IA y en los datos que surgen de ellos, se requiere:

  • Una evaluación de impacto regulatorio que evalúe si el uso de IA/aprendizaje automático (ML) es de bajo o alto riesgo (en el contexto del ensayo y sobre el impacto regulatorio o pacientes en el ensayo, no la misma evaluación de riesgo bajo la Ley de IA). Ejemplos de la EMA de usos de alto riesgo con pacientes son la asignación de pacientes para decisiones de tratamiento o dosificación.
  • Transparencia con los reguladores sobre el uso de IA. Es importante que los reguladores juzguen por sí mismos si el uso es apropiado y conduce a conclusiones que puedan ser confiables para cualquier autorización. Así, en su documento de reflexión sobre el uso de inteligencia artificial en el ciclo de vida de productos medicinales, la EMA considera que el uso de IA en un ensayo clínico con un alto impacto regulatorio requiere una evaluación regulatoria integral, que requiere la divulgación de la arquitectura del modelo completa (congelada antes del cierre de la base de datos y el desenmascaramiento), registros del desarrollo del modelo, validación y pruebas, datos de entrenamiento y descripción de la pipeline de procesamiento de datos.
  • Cumplimiento con estándares de datos tales como:
    1. ICH E6 GCP capítulo 3.16 sobre datos y registros y capítulo 4.3 sobre sistemas computarizados que abordan los principios de integridad de datos incluyendo integridad física y coherencia, control de calidad y validación para asegurar la completitud, precisión y fiabilidad de los datos clínicos generados en el ensayo.
    2. Borrador de ICH E6(3), Anexo 2, publicado el 20 de noviembre de 2024 que incluye principios GCP para aspectos específicos de ensayos clínicos relevantes para el uso de modelos de IA, como el manejo de datos del mundo real relacionados con el estado de salud del paciente recopilados de fuentes externas a ensayos clínicos.
    3. ICH E9: principios estadísticos para ensayos clínicos – Paso 5.
  • Uso reflexivo de IA, por ejemplo, al usar modelos de lenguaje grandes (LLMs) para apoyar tareas y procesos en el sistema regulatorio de medicamentos en los principios orientadores de la EMA sobre el uso de modelos de lenguaje grandes en actividades científicas regulatorias y para actividades regulatorias de medicamentos. Esta guía incluye consejos generales que podrían ser aplicables a cualquier uso de LLMs, tales como:
    1. Evitar la entrada de datos personales sensibles o IP confidencial en LLMs que no están desplegados o controlados localmente.
    2. Aplicar pensamiento crítico a los resultados de LLM, verificando la veracidad, fiabilidad y equidad antes de aplicarlos en cualquier documento regulatorio.

Las EMAs no desean que se utilicen resultados poco fiables de LLM para completar la documentación regulatoria. Presumimos que su temor no declarado es que tales usos podrían ser tanto erróneos como no obvios para el regulador.

Uso de dispositivos médicos que incluyen un sistema de IA

Los ensayos farmacéuticos y biotecnológicos pueden hacer uso de dispositivos médicos o dispositivos de diagnóstico in vitro, lo que significa que se debe cumplir con otra legislación además del Reglamento de Ensayos Clínicos (UE) 536/2014. Cualquier uso de un dispositivo médico en un ensayo clínico farmacéutico/biotecnológico en la UE/EEE se considera ya sea ‘colocación en el mercado’ o ‘puesta en servicio’. Cuando el dispositivo aún no tiene marcado CE, esto requiere bajo la regulación aplicable (2017/745 (MDR) o 2017/746 (IVDR)) al menos una notificación a la autoridad competente para un estudio clínico o de rendimiento, y en muchos casos se requerirá una autorización.

Cuando el dispositivo incluye un sistema de IA que es de alto riesgo según la definición en la Ley de IA (Reglamento 2024/1689), es poco probable que el uso real en pacientes caiga dentro de la exclusión de la Ley de IA bajo el Artículo 2(6) de ‘investigación y desarrollo científicos’. En su lugar, el dispositivo deberá cumplir adicionalmente con los requisitos para probar sistemas de IA de alto riesgo en condiciones del mundo real en los Artículos 60 y 61 de la Ley de IA. La superposición de estos dos regímenes no del todo alineados añade complicaciones que podrían resolverse únicamente a través de directrices de la UE, que esperamos sean redactadas por aquellos con un entendimiento profundo de la forma en que operan los ensayos clínicos, así como un conocimiento práctico de dispositivos médicos y dispositivos médicos in vitro.

Vea nuestros otros artículos que tratan sobre la privacidad de datos en un entorno clínico.

More Insights

Gobernanza de la IA: Retos y Oportunidades para Profesionales de Seguridad

La inteligencia artificial (IA) está teniendo un amplio efecto en las líneas de negocio, incluida la ciberseguridad, con un estudio que muestra que el 63% de los profesionales de ciberseguridad creen...

Gobierno británico en la mira por la implementación de reconocimiento facial sin regulación

El gobierno del Reino Unido ha sido criticado por la implementación de tecnología de reconocimiento facial sin un marco legal adecuado. El Instituto Ada Lovelace ha expresado preocupaciones sobre el...

El Auge de Startups de Gobernanza en la Era de la IA

A medida que la explosión de la inteligencia artificial avanza, las soluciones de gobernanza están en gran demanda. La industria global de gobernanza de IA se valoró en 890 millones de dólares el año...

Perspectivas sobre la Moratoria de 10 Años en las Leyes Estatales de IA en EE. UU.

La Cámara de Representantes de EE. UU. aprobó un paquete de presupuesto que incluye una moratoria de 10 años sobre la aplicación de leyes estatales de inteligencia artificial. Tech Policy Press busca...

El Futuro de la IA en los Tribunales: Lecciones de 500 Casos

A través del mundo, la regulación de la inteligencia artificial (IA) es desigual, con algunas jurisdicciones que ya cuentan con regulaciones integrales y otras que solo se centran en reglas...

Estrategias Efectivas para Mitigar los Riesgos de la IA Responsable

La inteligencia artificial responsable se está transformando de una impresionante palabra de moda en una necesidad crítica para los negocios, especialmente en la región de Asia-Pacífico. A pesar de...

La necesidad urgente de gobernanza legal en la IA

En esta entrevista de Help Net Security, Brooke Johnson, Asesor Legal Principal de Ivanti, explora las responsabilidades legales en la gobernanza de la IA, destacando cómo la colaboración...

Reformando las Regulaciones de IA

La Cámara de Representantes aprobó recientemente un importante proyecto de ley que impide a los estados regular modelos de inteligencia artificial durante diez años. Esto preocupa a algunos...