Preocupaciones sobre la Salud de ChatGPT en Australia y la Necesidad de Regulación

Opinión: Preocupaciones sobre ChatGPT Health en Australia respecto a los consejos de IA y la falta de regulación

Existen numerosos puntos de acceso a ChatGPT Health con una sola búsqueda. Se trata de un servicio de chat que ofrece una variedad de servicios relacionados con problemas médicos para los consumidores.

El reciente lanzamiento de ChatGPT Health se presenta como un servicio de información general, pero los marcos de referencia son amplios. Es una interfaz para información general, que puede ser y ha sido interpretada como consejo.

Un artículo sobre ChatGPT Health destaca de manera clara y alarmante lo que puede salir mal, incluyendo un caso de alguien que tomó bromuro de sodio en lugar de sal de mesa.

El problema

La IA se basa en los datos disponibles para procesar solicitudes. Sin embargo, los datos disponibles sobre el bromuro de sodio son mínimos y preocupantes. Incluso los fabricantes parecen tener información limitada.

La información general que la IA puede acceder es adecuada para una visión general casual, pero no para un nivel diagnóstico. Incluye información sobre seguridad y toxicidad.

Este caso específico ilustra cómo una persona terminó en el hospital tras tomar bromuro de sodio, que incluye alucinaciones en la información de toxicidad básica. La pregunta es cómo esta persona llegó a pensar que el bromuro de sodio era un sustituto de la sal de mesa, quizás por el hecho de que ambos contienen sodio.

El alcance del problema

Este es un claro ejemplo de “exceso de alcance de la IA”. En el caso del consumidor, sobrepasó su propio conocimiento. Este tipo de información no puede traducirse en una solución rápida para la sal de mesa o cualquier otro producto.

En el caso de ChatGPT Health, es un grave exceso de alcance. Es una cosa simplemente recitar información fáctica; transformar esa información en consejo médico está fuera de discusión.

Una de las razones por las cuales la salud en línea ha prosperado es que se supone que ofrece un servicio similar al que recibirías de un médico. Es rápido, eficiente, ahorra tiempo y dinero, y nadie tiene que arriesgar su vida en el tráfico para tratar un resfriado.

Los servicios de salud basados en IA están inevitablemente fuera de su profundidad en estas funciones básicas y no están sujetos al mismo nivel de supervisión.

Regulación

La regulación podría ser más sencilla de lo que parece. Bajo la legislación australiana, una empresa médica no puede proporcionar servicios médicos y tampoco es una persona jurídica. Estas son distinciones importantes.

¿Cómo podría una IA proporcionar los mismos servicios? La IA tampoco es una persona jurídica. Esto podría extenderse a cualquier forma de consejo médico.

Como activo terapéutico, la IA podría estar regulada por la Administración de Bienes Terapéuticos. Solo podría operar bajo regulaciones terapéuticas generales, con diversas salvaguardas incorporadas.

¿Por qué regular?

Porque de lo contrario, cualquier producto pseudo-médico peligroso puede entrar en la cadena alimentaria. Hay riesgos serios de daños mayores. La situación en América respecto a los medicamentos, regulados o no, demuestra que el riesgo es demasiado alto.

Olvidemos el “el comprador debe tener cuidado”. ¿Por qué el comprador de algo debe tener cuidado en absoluto? ¿Qué hay de malo en tener la obligación de comercializar productos seguros?

Un aviso que diga “este producto podría exterminar a toda tu familia” puede ser noble y alentador, pero ¿por qué necesitas eso? ¿Te dice “puede contener plutonio” lo suficiente?

En el caso del bromuro de sodio, es razonable asumir que nadie consideró seriamente que fuera un sustituto de la sal de mesa. No deberías necesitar que te lo digan, pero aquí hay un caso documentado de exactamente eso.

Conclusión

La IA está destinada a ser una parte crítica de la medicina. Necesita ser segura.

Nota: Las opiniones expresadas en este artículo son del autor y no reflejan las opiniones o puntos de vista de ninguna organización o publicación.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...