Los ‘hoyos’ en la regulación federal de IA en salud deben ser reparados
A medida que el uso de la inteligencia artificial se vuelve más común en los entornos de salud, los expertos están pidiendo un fortalecimiento de las regulaciones que rodean esta tecnología.
En los últimos años, la IA se ha convertido en una herramienta popular tanto en la investigación médica como en los entornos clínicos. Sin embargo, las preocupaciones sobre los marcos regulatorios actuales han sido expresadas por expertos del ámbito médico.
Inadecuaciones en los procesos de aprobación
Antes de que se comercialicen o distribuyan nuevos dispositivos médicos, deben ser considerados «seguros y efectivos». Sin embargo, los caminos de aprobación actuales fueron desarrollados hace décadas para dispositivos médicos tradicionales y no se aplican bien a los dispositivos modernos de tipo IA. El camino de aprobación actual, conocido como 510(k), otorga autorización a aproximadamente el 98% de todos los dispositivos habilitados para IA.
Este proceso se utiliza para dispositivos que son similares a opciones ya existentes en el mercado que han demostrado ser «seguros y efectivos». Esto significa que la cantidad de datos o evidencia requerida no es tan robusta como si se tratara de un producto completamente nuevo. La complejidad de los dispositivos de IA puede dificultar la determinación de su calidad.
Desafíos en la implementación
Una vez que un dispositivo de IA es implementado, su rendimiento puede cambiar con el tiempo y variar entre diferentes ubicaciones, lo que se conoce como «desviación». El proceso regulatorio actual carece de una infraestructura adecuada para asegurar que un sistema de IA funcione correctamente en el lugar donde se despliega.
Propuestas para mejorar la regulación
Para abordar estas preocupaciones, se propone un marco más amplio y robusto que garantice que las herramientas de IA sean correctamente entrenadas y probadas antes de que se considere su práctica independiente. Esto incluiría un modelo de supervisión que conduzca hacia una autonomía gradual, similar a lo que un humano experimentaría antes de alcanzar la práctica independiente.
Se sugiere que las instituciones adopten sus propios procesos de gobernanza de IA para determinar el nivel adecuado de evaluación, rigor y transparencia. Esto debería estar en su lugar independientemente de los requisitos a nivel federal o estatal.
Además, se apoya un marco centrado en la FDA que incluiría una asociación con las juntas médicas estatales. Se argumenta que una regulación local es necesaria para mantenerse al día con el ritmo de los avances tecnológicos.
Iniciativas legislativas en curso
En algunas regiones, se ha introducido legislación que requeriría a aseguradoras, hospitales y clínicos proporcionar transparencia a los pacientes en casos donde se utiliza IA. La legislación busca asegurar que se realice una «evaluación individualizada final» por un humano y que se minimice el sesgo y la discriminación en el uso de IA, tal como ya prohíbe la ley.
Aunque estas iniciativas son considerados un buen comienzo, se argumenta que son diferentes a la regulación de dispositivos en el ámbito de soporte a decisiones, lo que no parece estar adecuadamente abordado.