La pirámide de riesgos: clave para la conformidad de dispositivos médicos con la Ley de IA

DIA Europa: La Pirámide de Riesgo y su Importancia en la Evaluación de Conformidad bajo la Ley de IA

En el contexto del desarrollo de dispositivos médicos, un experto ha señalado que la pirámide de riesgo puede ser una herramienta esencial para determinar si un dispositivo requiere una evaluación de conformidad según la Ley de Inteligencia Artificial (IA) de la UE. Este enfoque fue discutido en el evento DIA Europa 2025.

Clasificación de Dispositivos Médicos

Según la Ley de IA, los dispositivos médicos se clasifican en diferentes niveles de riesgo. Los dispositivos que utilizan software embebido en IA para diagnosticar o detectar anormalidades son considerados de alto riesgo y, por lo tanto, necesitan ser evaluados por un organismo notificado. Por otro lado, los dispositivos de riesgo limitado no son utilizados para diagnósticos y están sujetos a obligaciones de transparencia específicas.

La Pirámide de Riesgo

Fischer, un experto en estrategia regulatoria, explicó que la Ley de IA establece un sistema basado en riesgo para clasificar las aplicaciones de IA. Este sistema se representa como una pirámide:

  • En la base, se encuentran los dispositivos de mínimo riesgo, que no están regulados y no se mencionan explícitamente en la normativa de IA.
  • En el medio, los dispositivos de riesgo limitado están sujetos a requisitos de transparencia.
  • En la cima, los sistemas de riesgo inaceptable, que incluyen manipulaciones dañinas de IA o sistemas de puntuación social, están prohibidos.

Requisitos para Dispositivos de Alto Riesgo

Los fabricantes de dispositivos de alto riesgo deben cumplir con varios requisitos, incluyendo:

  • Realizar una evaluación de conformidad antes de comercializar el producto.
  • Adherirse a requisitos de etiquetado, que incluyen la identificación del fabricante y el marcado CE.
  • Establecer equipos de gestión de riesgos para evaluar el sistema de IA.
  • Mantener documentación técnica y registros a lo largo del ciclo de vida del sistema de IA.

Fischer destacó que la implementación de estas regulaciones es mayormente un ejercicio administrativo que requiere una organización adecuada de la documentación.

Innovaciones en Dispositivos Médicos

Rajarshi Banerjee, CEO de una empresa innovadora en el campo, subrayó la necesidad de prepararse para una nueva ola de aplicaciones que utilizan herramientas avanzadas de IA en dispositivos médicos. Un ejemplo destacado es el software LiverMultiScan, que ha recibido la aprobación de la FDA y el marcado CE de la UE. Esta aplicación realiza pruebas no invasivas para detectar enfermedades hepáticas.

El uso de algoritmos en esta tecnología puede reemplazar biopsias hepáticas, que a menudo son inexactas. La tecnología utiliza imágenes por resonancia magnética (IRM) para determinar el estado del hígado, enviando los escaneos a un laboratorio que emplea un algoritmo propietario para analizar los resultados.

Conclusión

La Ley de IA de la UE representa un cambio significativo en la regulación de dispositivos médicos que utilizan inteligencia artificial. La comprensión y aplicación adecuada de la pirámide de riesgo será crucial para los fabricantes que buscan cumplir con los nuevos requisitos y garantizar la seguridad y eficacia de sus productos en el mercado.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...