Gobernanza de IA en Salud: Desafíos y Oportunidades

Primero, no hacer daño: Modelando la gobernanza de la IA en salud en un paisaje global cambiante

La gobernanza de la inteligencia artificial (IA) en el sector de la salud ha sido objeto de cambios monumentales en los últimos meses. La retórica que considera la regulación como una barrera para la innovación de la IA y las oportunidades transversales que ofrece, incluyendo para la salud y las ciencias de la vida, ha crecido considerablemente.

Desde el otoño pasado, han surgido rumores sobre un cambio en el enfoque de regulación de la IA en los EE. UU., y desde entonces, el presidente Donald J. Trump ha revertido muchas de las medidas de la administración Biden hacia la regulación específica de la IA. La Unión Europea (UE) también ha abandonado inesperadamente sus esfuerzos para adoptar la propuesta de la Directiva de Responsabilidad de IA, introduciendo un programa de trabajo que sugiere un enfoque más favorable a la innovación.

El Reino Unido ha adoptado también una retórica pro-innovación en su política de IA. Sin embargo, su enfoque regulatorio ha sido característicamente diferente al de la UE y los EE. UU.: no ha creado regulaciones específicas para la IA (como la UE) ni ha tomado una postura fuertemente dereguladora para fomentar la innovación (como los EE. UU.). En cambio, ha buscado revisar y enmendar la legislación o directrices existentes para apoyar a los desarrolladores de IA y proteger al público.

No obstante, el enfoque del Reino Unido enfrenta desafíos. La revisión y aplicación de la regulación existente a la IA debe hacerse con cuidado para evitar cargas regulatorias conflictivas o duplicaciones. Además, se requiere asegurar que los reguladores tengan la capacidad y experiencia necesarias para evaluar y responder a los nuevos riesgos que presentan las tecnologías de IA.

Gobernanza y responsabilidad en la IA médica: ¿Quién es responsable cuando la IA falla?

A medida que las herramientas de IA en la atención médica comienzan a superar a los humanos en ciertas tareas, encontrar el equilibrio adecuado entre la autonomía de la IA y la supervisión humana se vuelve cada vez más complejo. Las preguntas sobre responsabilidad y culpabilidad, especialmente cuando ocurre daño, son ahora primordiales para reguladores, desarrolladores y clínicos.

Para desentrañar estos desafíos, se exploró cómo intersectan múltiples regímenes regulatorios – incluyendo la ley de dispositivos médicos, la Ley de IA de la UE, la protección de datos, y la ley de negligencia y responsabilidad por productos. Los talleres realizados generaron una gran cantidad de ideas y un conjunto de preguntas urgentes para los responsables de políticas, investigadores y reguladores que trabajan para construir un marco claro para la responsabilidad en la IA médica.

Datos de salud sintéticos

Los datos sintéticos tienen un potencial significativo para avanzar en el desarrollo y despliegue de la IA como dispositivo médico (IAaMD), especialmente en áreas donde los datos del mundo real son limitados, sensibles o costosos de obtener. Aunque la orientación existente proporciona una base sólida, el uso de datos sintéticos requiere claridad adicional, especialmente cuando forma parte central de la base de evidencia en las presentaciones regulatorias.

Reconociendo esto, se está colaborando activamente con socios que desarrollan principios orientadores para facilitar el diálogo entre fabricantes y organismos de aprobación, con la esperanza de ofrecer un enfoque estructurado que ayude a los fabricantes a considerar y justificar su uso de datos sintéticos en el desarrollo de IAaMD.

Desafíos para la vigilancia post-comercialización de la IA médica

La IA también presenta desafíos para la regulación de dispositivos médicos una vez que están en uso, debido a la posibilidad de que ocurran cambios que afecten su seguridad y rendimiento. El enfoque innovador y colaborativo adoptado a través del programa AI Airlock de la MHRA se basa en productos del mundo real y experiencia multidisciplinaria para identificar y abordar los nuevos desafíos regulatorios que plantea la IA.

Temas importantes en los proyectos

  • La regulación ágil y la alineación internacional son clave: Con las capacidades de IA acelerándose más rápido de lo que nuestros mecanismos de seguridad actuales pueden adaptarse, los reguladores deben estar preparados para responder de manera dinámica. Esto incluye no solo esfuerzos nacionales, sino una mayor alineación regulatoria a través de fronteras.
  • Las preocupaciones regulatorias y éticas no han desaparecido: Simplemente no son la narrativa dominante en este momento. Aunque las cumbres anteriores se centraron fuertemente en la seguridad, este año se inclinó hacia la innovación.
  • Recursos: Es importante asegurar que los reguladores tengan los recursos y la experiencia necesarios para mantenerse al día con las tecnologías que caen bajo el paraguas de la “IA”.

Es fundamental promover la adopción responsable de tecnologías de IA que sean no solo innovadoras, sino también efectivas, seguras y que realmente mejoren los resultados para los pacientes.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...