Preocupaciones sobre ChatGPT Health y su impacto en la salud en Australia

‘No regulado’: el lanzamiento de ChatGPT Health en Australia causa preocupación entre expertos

Un hombre de 60 años, sin antecedentes de enfermedad mental, se presentó en un departamento de emergencias insistiendo en que su vecino lo estaba envenenando. A lo largo de las siguientes 24 horas, sufrió alucinaciones que empeoraron e intentó escapar del hospital.

Los médicos finalmente descubrieron que el hombre tenía una dieta diaria de bromuro de sodio, una sal inorgánica utilizada principalmente para fines industriales y de laboratorio, incluidos la limpieza y el tratamiento de agua. La adquirió por internet después de que una inteligencia artificial le dijera que podía usarla en lugar de sal de mesa debido a su preocupación por los efectos del sodio en su dieta. El bromuro de sodio puede acumularse en el cuerpo, causando una condición llamada bromismo, cuyos síntomas incluyen alucinaciones, estupor y coordinación deficiente.

Casos como este han suscitado la preocupación de expertos sobre el lanzamiento de ChatGPT Health en Australia. Un número limitado de usuarios australianos ya puede acceder a esta plataforma de inteligencia artificial, que les permite “conectar de manera segura registros médicos y aplicaciones de bienestar” para generar respuestas “más relevantes y útiles”. Los usuarios pueden unirse a una lista de espera para acceder.

Preocupaciones sobre la información médica

ChatGPT Health se presenta como una interfaz que puede ayudar a las personas a entender información de salud y resultados de pruebas, o recibir consejos sobre dietas, sin reemplazar a un médico. Sin embargo, el desafío radica en que, para muchos usuarios, no es obvio dónde termina la información general y comienza el consejo médico, especialmente cuando las respuestas suenan seguras y personalizadas, incluso si son engañosas.

La falta de regulación es un tema crítico. ChatGPT Health no está regulado como un dispositivo médico o herramienta de diagnóstico, lo que significa que no existen controles de seguridad obligatorios, ni informes de riesgos, ni vigilancia post-comercialización, y no se requiere publicar datos de pruebas.

La empresa detrás de ChatGPT, que desarrolló la herramienta HealthBench para crear ChatGPT Health, ha trabajado con más de 200 médicos de 60 países para mejorar los modelos que alimentan este servicio. Sin embargo, la metodología utilizada y sus evaluaciones son “principalmente no divulgadas, en lugar de estar detalladas en estudios revisados por pares”.

Beneficios y riesgos del uso de IA en salud

Expertos en salud han indicado que el aumento de los costos médicos y los largos tiempos de espera para ver a un médico están llevando a las personas a buscar ayuda en la inteligencia artificial. Aunque ChatGPT Health podría ser útil para ayudar a las personas a gestionar condiciones crónicas conocidas y a investigar formas de mantenerse saludables, también hay preocupaciones de que la gente acepte los consejos dados por la IA sin cuestionamientos.

La falta de regulación plantea la posibilidad de que errores, sesgos y desinformación se repliquen de manera rápida y a gran escala, lo que podría ser difícil de revertir.

Conclusiones

El lanzamiento de ChatGPT Health en Australia plantea importantes preguntas sobre la regulación y la responsabilidad en el ámbito de la salud digital. A medida que la tecnología avanza, es crucial que se establezcan normas claras para proteger a los usuarios de información engañosa y garantizar la seguridad en el uso de herramientas de inteligencia artificial en la salud.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...