IA Responsable en la Atención Médica: Ética, Precisión e Innovación
La industria de la atención médica ha estado bajo un constante escrutinio debido a la magnitud de la responsabilidad que conlleva, ya que la salud es uno de los pilares más significativos de cualquier nación desde una perspectiva geopolítica.
El uso de la IA en la atención médica está evolucionando por diversas razones. La principal es la automatización del mantenimiento de los registros de salud electrónicos para mejorar la colaboración entre médicos y pacientes, así como ayudar a prevenir el burnout que enfrentan los trabajadores de la salud al mantener registros. La democratización de la atención médica es otra área donde la IA se está volviendo popular. Otras aplicaciones incluyen la optimización de la programación de citas para pacientes, la gestión de residuos y la administración de datos para cumplir con objetivos de Gobernanza Ambiental, Social y Corporativa (ESG) que se alinean con prácticas sostenibles, atención al paciente, tratamientos y diagnóstico de enfermedades.
Desde la perspectiva de las enfermedades y los tratamientos en diversas disciplinas de la medicina, la IA puede ayudar a mejorar los planes de tratamiento para mejorar los resultados y priorizar los casos urgentes. Además, puede aumentar la precisión en el diagnóstico al analizar grandes conjuntos de datos, incluidas las historias clínicas. Innovaciones adicionales incluyen sistemas robóticos que realizan cirugías.
Sin embargo, es esencial garantizar que estos avances se alineen con los principios de la IA Responsable. Esto implica desarrollar y desplegar sistemas de IA que sean éticos, transparentes y responsables. Al priorizar la IA Responsable, la industria de la salud puede salvaguardar la privacidad del paciente, prevenir sesgos en la toma de decisiones y garantizar que las tecnologías de IA se utilicen para mejorar el bienestar humano. Esto tendrá un impacto positivo tanto en el ámbito médico como en el farmacéutico para tratamientos y ensayos clínicos.
¿Qué es la IA Responsable?
La IA Responsable es un enfoque para desarrollar, evaluar y desplegar sistemas de IA de manera que sean seguros, confiables y éticos. La equidad es fundamental para garantizar que los sistemas de IA traten a todos los individuos y grupos de manera justa, evitando sesgos que podrían llevar a la discriminación por género o por población o etnicidad. Los sistemas de IA deben operar de manera confiable y segura, incluso bajo condiciones inesperadas. La privacidad y la seguridad de los datos generados por los sistemas de IA deben ser protegidas. Además, el diseño de los sistemas de IA debe ser accesible y beneficioso para todos los usuarios, incluidos aquellos con discapacidades. Hacer que los sistemas de IA sean comprensibles y que sus procesos de toma de decisiones sean claros para los usuarios es igualmente importante.
¿Cómo podemos incorporar la IA Responsable en la Atención Médica?
La IA debe ser utilizada como un colaborador, en lugar de una entidad única. Debe ser utilizada para cumplir con responsabilidades sociales, funcionales y organizativas que apoyen a los profesionales médicos y a los pacientes. Uno de los temas de enfoque en Davos 2025 se centró en construir sistemas de salud más equitativos. Para diseñar sistemas de salud más equitativos que atiendan a todos por igual—hombres, mujeres, niños, personas sanas y discapacitadas—se deben considerar varios factores clave.
1. Calidad y Diversidad de Datos: Los datos deben ser representativos, de buena calidad y diversos. Esto asegura que los modelos de IA se entrenen en una amplia gama de escenarios y poblaciones, reduciendo sesgos y mejorando la precisión.
2. Contexto Histórico: Los Institutos Nacionales de Salud (NIH) financiaron los primeros ensayos clínicos en 1993, marcando un hito significativo en la búsqueda de una atención médica basada en evidencia. Este contexto histórico subraya la importancia de las pruebas rigurosas y la validación en el desarrollo de soluciones de IA.
3. Datos Sintéticos: Los datos sintéticos pueden ser utilizados para compensar la naturaleza sesgada de los datos existentes, evitando ser entrenados en conjuntos de datos incompletos y asegurando la calidad y validez de los datos. Esto puede prevenir resultados incorrectos debido a la «alucinación» de herramientas de IA a causa de datos incorrectos o no disponibles. Al generar datos artificiales que imitan escenarios del mundo real, los investigadores pueden abordar brechas y sesgos en los conjuntos de datos originales.
4. Construcción de Alfabetización en IA: Construir alfabetización en IA es un buen comienzo. Educar a los profesionales de la salud y a las partes interesadas sobre las capacidades y limitaciones de la IA es crucial para su implementación responsable.
5. Acceso y Facilidades: Es necesario modelar esas facilidades. Cuando se cuenta con instalaciones de atención, se necesita acceso. Asegurar que las instalaciones de atención médica sean accesibles para todos es un paso fundamental para crear sistemas de salud equitativos. Se deben utilizar mapas de acceso para analizar la cobertura poblacional de las instalaciones de atención médica en las distintas regiones.
¿Cómo evitar sesgos en los conjuntos de datos de atención médica?
Los datos recolectados deben representar una amplia gama de demografías, incluyendo diferentes razas, géneros, edades y antecedentes socioeconómicos. Esto ayuda a crear sistemas de atención médica más equitativos. Es crucial realizar auditorías y monitorear continuamente los conjuntos de datos y algoritmos en busca de sesgos. Esto implica verificar cualquier disparidad en los datos y en los resultados producidos por los modelos de IA. Por último, cada organización debe llevar a cabo el Test de Asociación Implícita (IAT) para medir la cantidad de sesgo en sus conjuntos de datos y tomar pasos más inclusivos, contribuyendo a un futuro mejor para la IA en la atención médica.
Con la conciencia de incorporar la IA Responsable en sus decisiones de liderazgo, las organizaciones de todos los tamaños pueden marcar la diferencia.