Desafíos de Gobernanza y Regulación en la Inteligencia Artificial en Salud

La Gobernanza y los Problemas Regulatorios en la Inteligencia Artificial

Los sistemas de salud y las empresas emergentes están navegando por aguas complicadas en términos de gobernanza y regulación mientras implementan nuevas herramientas basadas en inteligencia artificial. Un reciente seminario web organizado por la firma de consultoría y servicios Manatt Health presentó a ejecutivos de dos startups que ayudan a los sistemas de salud con la gobernanza de IA. Los ponentes notaron que muchos sistemas de salud pueden tener la experiencia para monitorear modelos de aprendizaje automático, pero aún no cuentan con la infraestructura y capacidades para hacerlo a gran escala.

Estado Actual de la Gobernanza

La reunión de Manatt Health sobre tendencias de políticas comenzó con Randi Seigel, J.D., socio de Manatt, quien proporcionó antecedentes sobre el estado actual de la gobernanza, incluyendo la reciente guía del Joint Commission y CHAI.

Seigel discutió algunos intentos iniciales pero estancados de legislación sobre IA en el Congreso, describiendo modelos desarrollados por asociaciones. Por ejemplo, la National Association of Insurance Commissioners ha establecido un boletín modelo sobre el uso de IA por parte de los pagadores, adoptado por un gran número de estados. “También publicaron recientemente un informe que habla sobre cómo diferentes pagadores están interactuando con la inteligencia artificial y cómo han establecido su proceso de gobernanza”, señaló.

Además, la Federation of State Medical Boards ha emitido una declaración sobre la incorporación responsable y ética de la inteligencia artificial, adoptada en parte por al menos dos juntas médicas estatales.

Guías y Mejores Prácticas

Seigel describió cómo el Joint Commission y la Coalition for Health AI publicaron su guía propuesta sobre la adopción de mejores prácticas de IA en el sector de la salud. “Cubre recomendaciones relacionadas con políticas y estructuras de gobernanza de IA, privacidad del paciente y transparencia, seguridad de datos, protecciones de uso de datos, monitoreo de calidad continuo, informes de eventos de seguridad, evaluación de riesgos y sesgos, y educación y capacitación”, explicó.

La guía también recomienda que las organizaciones de salud implementen un proceso para el informe voluntario, confidencial y ciego de eventos de seguridad de IA, ya sea al Joint Commission o a organizaciones de seguridad del paciente. Además, establece mejores prácticas para la gobernanza de IA, incluida la gestión basada en riesgos de terceros y la evaluación de herramientas desarrolladas internamente y compradas.

Desafíos en la Implementación

Uno de los panelistas, Troy Bannister, fundador y CEO de Onboard AI, destacó que solo un pequeño porcentaje de los sistemas hospitalarios tienen los recursos necesarios para establecer un sistema que sea integral, en tiempo real y responsivo a los riesgos que puedan surgir. “Cuando el Joint Commission y CHAI publicaron esa primera guía, la principal objeción de los hospitales fue ‘no podemos implementar un monitoreo para cada herramienta de IA. Eso es un gran esfuerzo para nosotros’”, comentó Bannister.

Según Bannister, los hospitales están comenzando con casos de uso de bajo riesgo, como la revisión de gráficos, el scribe ambiental y el triaje radiológico. Sin embargo, a medida que la confianza en la IA crece y se encuentran más mejoras en los resultados clínicos, es probable que se vean más casos de uso en el extremo alto del riesgo.

Regulación y Futuro de la IA

Seigel mencionó que el Senador Ted Cruz ha introducido el SANDBOX Act, que obligaría al director de la Oficina de Ciencia y Tecnología de la Casa Blanca a crear un programa de regulación que permita a las empresas que trabajan en productos de IA solicitar una exención o modificación de ciertas disposiciones regulatorias. Sin embargo, los panelistas se mostraron escépticos ante esta idea.

Mark Sendak, M.D., M.P.P., cofundador y CEO de Vega Health, expresó que aunque existe un vacío en los estándares, es la experiencia y la infraestructura lo que realmente falta para implementar la gobernanza de IA a gran escala. “Desde la literatura y la comunidad de investigación, sabemos cómo monitorear la mayoría de estas herramientas. No es la norma lo que falta, es la infraestructura y los sistemas de datos que permitan hacerlo”, concluyó.

El enfoque de Sendak se alinea con la idea de desarrollar un modelo similar a los Clinical Laboratory Improvement Amendments (CLIA), donde existe un conjunto estándar de prácticas acordadas, pero la industria depende de una red distribuida de organizaciones para construir capacidades internas que aseguren la calidad de la IA a escala.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...