Logo Computerhoy.com

ChatGPT: estos son los riesgos de seguir sus recomendaciones médicas, según un estudio

Enrique Luque de Gregorio

ChatGPT: estos son los riesgos de seguir sus recomendaciones médicas, según un estudio

La inteligencia artificial ha dado un salto enorme de un tiempo a esta parte, y nada parece sugerir que no continúe haciéndolo. Pero eso no quiere decir que uno deba creer todo lo que dice a pies juntillas. Los propios creadores del popular ChatGPT ya han avisado por activa y por pasiva que su herramienta no tiene por qué ser fiable al cien por cien. Y menos cuando se trata de asuntos delicados.

Es precisamente lo que sucede con las cuestiones de salud. Utilizar al ChatGPT para lograr recomendaciones médicas puede generar riesgos, tal y como señala un nuevo estudio llevado a cabo en Estados Unidos. 

Los riesgos de ChatGPT

Que la inteligencia artificial “miente” es algo que está claro a estas alturas. Quizá el verbo mentir sea demasiado humano para estos programas, pero la realidad es que actúan de esa manera. 

El propio ChatGPT puede errar muchas veces en sus conclusiones, y dar como completamente cierta una información que no se ajusta en absoluto a la verdad, o que directamente supone una falacia. Muchos ejemplos así lo han demostrado. 

Pero estas “alucinaciones”, como se suelen conocer los desvaríos de la IA, tienen un significado especial cuando se trata de recomendaciones médicas. Porque sí, igual que se utilizan Google e Internet para buscar este tipo de información, también se usa ChatGPT con el mismo fin. Es algo natural, cabe suponer. Natural, sí, pero no necesariamente fiable. 

Por si existía alguna duda al respecto, además, la prestigiosa Universidad de Long Island, en Nueva York, lo ha recalcado basándose en un nuevo estudio al respecto. En su investigación, los científicos preguntaron a profesionales acerca de 39 cuestiones relacionadas con medicamentos. Al comparar sus respuestas con las de ChatGPT, descubrieron que solo 10 podían definirse como satisfactorias. 

El resto de respuestas, o bien eran inexactas o bien incompletas. En uno de los casos, además, la inteligencia artificial creada por OpenAI incluso se basó en referencias que, según los especialistas de Long Island, son inexistentes. Por estas razones, su conclusión es clara: seguir las recomendaciones de ChatGPT en asuntos médicos pueden ser perjudicial y peligroso para los pacientes. 

Un médico sin empatía

Este tema, visto con perspectiva, responde en parte a una cuestión fundamental: la incapacidad de ChatGPT de desarrollar empatía. Aunque la IA puede analizar grandes cantidades de datos clínicos, carece de la capacidad humana de empatizar y comprender el contexto personal del paciente, lo que puede llevar en muchísimas ocasiones a recomendaciones impersonales y desvinculadas de la realidad del paciente.

Además, los profesionales de la salud humanos a menudo aplican intuición clínica basada en la experiencia y el conocimiento acumulado a lo largo de los años. La IA, por el contrario, carece de esta intuición y podría no considerar factores subjetivos importantes en la toma de decisiones médicas.

Otro ejemplo más de que ChatGPT (y presumiblemente otras IA aparecidas o por aparecer, como Gemini de Google o la de WhatsApp) pueden ser sumamente útiles como fuente de consulta o ayuda, pero ni mucho menos dan siempre en la diana. Y con asuntos delicados, más vale ser prudente. 

Conoce cómo trabajamos en Computerhoy.