Gobernanza de IA en Salud: Desafíos y Oportunidades

Primero, no hacer daño: Modelando la gobernanza de la IA en salud en un paisaje global cambiante

La gobernanza de la inteligencia artificial (IA) en el sector de la salud ha sido objeto de cambios monumentales en los últimos meses. La retórica que considera la regulación como una barrera para la innovación de la IA y las oportunidades transversales que ofrece, incluyendo para la salud y las ciencias de la vida, ha crecido considerablemente.

Desde el otoño pasado, han surgido rumores sobre un cambio en el enfoque de regulación de la IA en los EE. UU., y desde entonces, el presidente Donald J. Trump ha revertido muchas de las medidas de la administración Biden hacia la regulación específica de la IA. La Unión Europea (UE) también ha abandonado inesperadamente sus esfuerzos para adoptar la propuesta de la Directiva de Responsabilidad de IA, introduciendo un programa de trabajo que sugiere un enfoque más favorable a la innovación.

El Reino Unido ha adoptado también una retórica pro-innovación en su política de IA. Sin embargo, su enfoque regulatorio ha sido característicamente diferente al de la UE y los EE. UU.: no ha creado regulaciones específicas para la IA (como la UE) ni ha tomado una postura fuertemente dereguladora para fomentar la innovación (como los EE. UU.). En cambio, ha buscado revisar y enmendar la legislación o directrices existentes para apoyar a los desarrolladores de IA y proteger al público.

No obstante, el enfoque del Reino Unido enfrenta desafíos. La revisión y aplicación de la regulación existente a la IA debe hacerse con cuidado para evitar cargas regulatorias conflictivas o duplicaciones. Además, se requiere asegurar que los reguladores tengan la capacidad y experiencia necesarias para evaluar y responder a los nuevos riesgos que presentan las tecnologías de IA.

Gobernanza y responsabilidad en la IA médica: ¿Quién es responsable cuando la IA falla?

A medida que las herramientas de IA en la atención médica comienzan a superar a los humanos en ciertas tareas, encontrar el equilibrio adecuado entre la autonomía de la IA y la supervisión humana se vuelve cada vez más complejo. Las preguntas sobre responsabilidad y culpabilidad, especialmente cuando ocurre daño, son ahora primordiales para reguladores, desarrolladores y clínicos.

Para desentrañar estos desafíos, se exploró cómo intersectan múltiples regímenes regulatorios – incluyendo la ley de dispositivos médicos, la Ley de IA de la UE, la protección de datos, y la ley de negligencia y responsabilidad por productos. Los talleres realizados generaron una gran cantidad de ideas y un conjunto de preguntas urgentes para los responsables de políticas, investigadores y reguladores que trabajan para construir un marco claro para la responsabilidad en la IA médica.

Datos de salud sintéticos

Los datos sintéticos tienen un potencial significativo para avanzar en el desarrollo y despliegue de la IA como dispositivo médico (IAaMD), especialmente en áreas donde los datos del mundo real son limitados, sensibles o costosos de obtener. Aunque la orientación existente proporciona una base sólida, el uso de datos sintéticos requiere claridad adicional, especialmente cuando forma parte central de la base de evidencia en las presentaciones regulatorias.

Reconociendo esto, se está colaborando activamente con socios que desarrollan principios orientadores para facilitar el diálogo entre fabricantes y organismos de aprobación, con la esperanza de ofrecer un enfoque estructurado que ayude a los fabricantes a considerar y justificar su uso de datos sintéticos en el desarrollo de IAaMD.

Desafíos para la vigilancia post-comercialización de la IA médica

La IA también presenta desafíos para la regulación de dispositivos médicos una vez que están en uso, debido a la posibilidad de que ocurran cambios que afecten su seguridad y rendimiento. El enfoque innovador y colaborativo adoptado a través del programa AI Airlock de la MHRA se basa en productos del mundo real y experiencia multidisciplinaria para identificar y abordar los nuevos desafíos regulatorios que plantea la IA.

Temas importantes en los proyectos

  • La regulación ágil y la alineación internacional son clave: Con las capacidades de IA acelerándose más rápido de lo que nuestros mecanismos de seguridad actuales pueden adaptarse, los reguladores deben estar preparados para responder de manera dinámica. Esto incluye no solo esfuerzos nacionales, sino una mayor alineación regulatoria a través de fronteras.
  • Las preocupaciones regulatorias y éticas no han desaparecido: Simplemente no son la narrativa dominante en este momento. Aunque las cumbres anteriores se centraron fuertemente en la seguridad, este año se inclinó hacia la innovación.
  • Recursos: Es importante asegurar que los reguladores tengan los recursos y la experiencia necesarios para mantenerse al día con las tecnologías que caen bajo el paraguas de la “IA”.

Es fundamental promover la adopción responsable de tecnologías de IA que sean no solo innovadoras, sino también efectivas, seguras y que realmente mejoren los resultados para los pacientes.

More Insights

Regulación de IA: Un llamado urgente del CII

El Instituto Chartered de Seguros (CII) ha solicitado marcos de responsabilidad claros y una estrategia de habilidades a nivel sectorial para guiar el uso de la inteligencia artificial (IA) en los...

Desarrollos en Inteligencia Artificial en Nueva York: Legislación Clave para Empleadores

En la primera parte de 2025, Nueva York se unió a otros estados para regular la inteligencia artificial (IA) a nivel estatal. Se introdujeron proyectos de ley que se centran en el uso de herramientas...

Estrategias de Gestión de Riesgos en Sistemas de Inteligencia Artificial

El artículo discute la importancia de gestionar los riesgos asociados con los sistemas de inteligencia artificial, destacando que el uso de datos erróneos puede llevar a resultados perjudiciales y...

Lo Que Debe Saber Sobre la Ley de Inteligencia Artificial de la UE

La Unión Europea ha introducido la Ley de Inteligencia Artificial (AI Act), una regulación histórica diseñada para gestionar los riesgos y oportunidades de las tecnologías de IA en Europa. Este...

La Ley Básica de IA en Corea: Un Nuevo Horizonte Regulatorio

Corea del Sur se ha posicionado a la vanguardia de la regulación de la inteligencia artificial en Asia con la aprobación de la Ley Básica de IA, que entrará en vigor en enero de 2026. Esta legislación...

Cumpliendo con el Acta de IA de la UE y DORA: Un Enfoque Financiero

El Acta de IA de la UE y DORA están transformando la manera en que las entidades financieras manejan el riesgo asociado con la inteligencia artificial. Es fundamental comprender cómo estas...

Regulación de la IA: Desafíos y Oportunidades en el Espacio Transatlántico

La inteligencia artificial (IA) se ha convertido en una de las fuerzas tecnológicas más trascendentales de la actualidad, con el potencial de transformar economías, sociedades y la naturaleza misma de...

La UE Impulsa la Estrategia de IA para Superar Barreras

La Comisión Europea ha presentado una nueva estrategia para promover la inteligencia artificial (IA) en Europa, buscando reducir las barreras para su implementación y mejorar la competitividad global...