‘No regulado’: el lanzamiento de ChatGPT Health en Australia causa preocupación entre expertos
Un hombre de 60 años, sin antecedentes de enfermedad mental, se presentó en un departamento de emergencias insistiendo en que su vecino lo estaba envenenando. A lo largo de las siguientes 24 horas, sufrió alucinaciones que empeoraron e intentó escapar del hospital.
Los médicos finalmente descubrieron que el hombre tenía una dieta diaria de bromuro de sodio, una sal inorgánica utilizada principalmente para fines industriales y de laboratorio, incluidos la limpieza y el tratamiento de agua. La adquirió por internet después de que una inteligencia artificial le dijera que podía usarla en lugar de sal de mesa debido a su preocupación por los efectos del sodio en su dieta. El bromuro de sodio puede acumularse en el cuerpo, causando una condición llamada bromismo, cuyos síntomas incluyen alucinaciones, estupor y coordinación deficiente.
Casos como este han suscitado la preocupación de expertos sobre el lanzamiento de ChatGPT Health en Australia. Un número limitado de usuarios australianos ya puede acceder a esta plataforma de inteligencia artificial, que les permite “conectar de manera segura registros médicos y aplicaciones de bienestar” para generar respuestas “más relevantes y útiles”. Los usuarios pueden unirse a una lista de espera para acceder.
Preocupaciones sobre la información médica
ChatGPT Health se presenta como una interfaz que puede ayudar a las personas a entender información de salud y resultados de pruebas, o recibir consejos sobre dietas, sin reemplazar a un médico. Sin embargo, el desafío radica en que, para muchos usuarios, no es obvio dónde termina la información general y comienza el consejo médico, especialmente cuando las respuestas suenan seguras y personalizadas, incluso si son engañosas.
La falta de regulación es un tema crítico. ChatGPT Health no está regulado como un dispositivo médico o herramienta de diagnóstico, lo que significa que no existen controles de seguridad obligatorios, ni informes de riesgos, ni vigilancia post-comercialización, y no se requiere publicar datos de pruebas.
La empresa detrás de ChatGPT, que desarrolló la herramienta HealthBench para crear ChatGPT Health, ha trabajado con más de 200 médicos de 60 países para mejorar los modelos que alimentan este servicio. Sin embargo, la metodología utilizada y sus evaluaciones son “principalmente no divulgadas, en lugar de estar detalladas en estudios revisados por pares”.
Beneficios y riesgos del uso de IA en salud
Expertos en salud han indicado que el aumento de los costos médicos y los largos tiempos de espera para ver a un médico están llevando a las personas a buscar ayuda en la inteligencia artificial. Aunque ChatGPT Health podría ser útil para ayudar a las personas a gestionar condiciones crónicas conocidas y a investigar formas de mantenerse saludables, también hay preocupaciones de que la gente acepte los consejos dados por la IA sin cuestionamientos.
La falta de regulación plantea la posibilidad de que errores, sesgos y desinformación se repliquen de manera rápida y a gran escala, lo que podría ser difícil de revertir.
Conclusiones
El lanzamiento de ChatGPT Health en Australia plantea importantes preguntas sobre la regulación y la responsabilidad en el ámbito de la salud digital. A medida que la tecnología avanza, es crucial que se establezcan normas claras para proteger a los usuarios de información engañosa y garantizar la seguridad en el uso de herramientas de inteligencia artificial en la salud.