Estilos de vida

Según investigación: ChatGPT podría responder preguntas médicas

ChatGPT podría responder preguntas médicas
Logo de la Inteligencia Artificial ChatGPT. Foto: CDN digital.

Según una investigación por la Universidad de Long Island plantearon 39 consultas relacionadas con medicamentos a la versión gratuita del chatbot de inteligencia artificial, todas las cuales eran preguntas reales del servicio de información sobre medicamentos de la Facultad de Farmacia de la universidad.

Sin embargo, encontraron que ChatGPT proporcionó respuestas precisas a solo unas 10 de las preguntas, o aproximadamente una cuarta parte del total. Para las otras 29 preguntas, las respuestas estaban incompletas o inexactas, o no respondían a las preguntas.

En ese sentido, el chatbot de IA experimental de OpenAI, se lanzó en noviembre de 2022 y se convirtió en la aplicación para consumidores de más rápido crecimiento de la historia, con casi 100 millones de personas registrándose en dos meses.

Dada esa popularidad, el interés de los investigadores surgió por la preocupación de que sus estudiantes, otros farmacéuticos y consumidores comunes recurrieran a recursos como ChatGPT para explorar preguntas sobre sus planes de salud y medicamentos, dijo Sara Grossman, profesora asociada de práctica farmacéutica en Long Island. Universidad y uno de los autores del estudio.

Otras consultas arrojaban respuestas inexactas o incluso peligrosas

En una pregunta, por ejemplo, los investigadores preguntaron a ChatGPT si el medicamento antiviral Covid-19 Paxlovid y el medicamento para bajar la presión arterial verapamilo reaccionarían entre sí en el cuerpo. ChatGPT respondió que tomar los dos medicamentos juntos no produciría efectos adversos.

En realidad, las personas que toman ambos medicamentos pueden tener una gran caída de la presión arterial, lo que puede provocar mareos y desmayos. Para los pacientes que toman ambos, los médicos a menudo crean planes específicos para cada paciente. Esto incluye reducir la dosis de verapamilo o advertir a la persona que se levante lentamente después de estar sentada, dijo Grossman.

La orientación de ChatGPT, añadió, habría puesto a las personas en peligro.

«Usar ChatGPT para abordar esta pregunta pondría al paciente en riesgo de sufrir una interacción farmacológica no deseada y prevenible».

Sara Grossman

ChatGPT incluso fabrica referencias

Cuando los investigadores pidieron al chatbot referencias científicas para respaldar cada una de sus respuestas, descubrieron que el software solo podía proporcionarles ocho de las preguntas que formulaban. Y en cada caso, se sorprendieron al descubrir que ChatGPT estaba fabricando referencias.

A primera vista, las citas parecían legítimas: a menudo tenían el formato adecuado, proporcionaban direcciones URL y figuraban en revistas científicas legítimas. Pero cuando el equipo intentó encontrar los artículos a los que se hacía referencia, se dieron cuenta de que ChatGPT les había proporcionado citas ficticias.

Le puede interesar:

En un caso, los investigadores preguntaron a ChatGPT cómo convertir las dosis de inyección espinal del medicamento para los espasmos musculares baclofeno en las dosis orales correspondientes. El equipo de Grossman no pudo encontrar una tasa de conversión de dosis científicamente establecida, pero ChatGPT presentó una tasa de conversión única y citó la orientación de dos organizaciones médicas, dijo.

Sin embargo, ninguna organización proporciona orientación oficial sobre la tasa de conversión de dosis. De hecho, el factor de conversión que sugirió ChatGPT nunca había sido establecido científicamente. El software también proporcionó un ejemplo de cálculo para la conversión de dosis, pero con un error crítico. En este caso, confundió unidades al calcular la dosis oral, desviando la dosis recomendada por un factor de 1000.

Con información de: CNN

Más contenido por Redacción CDN

Más noticias