Logo Computerhoy.com

Cuando la IA se equivoca: ChatGPT puede generar datos falsos para apoyar hipótesis científicas

Enrique Luque de Gregorio

Un ranking de modelos de inteligencia artificial según sus alucinaciones, dejan a las IAs de Google como las más "mentirosas"

Getty Images

La inteligencia artificial está de plena actualidad. Mientras compañías como Meta perfilan sus propuestas para añadir a aplicaciones como WhatsApp, entre otras herramientas, está claro que ChatGPT es la tecnología de IA más popular del momento. Una ayuda que mucha gente utiliza a diario para resolver todo tipo de dudas e interrogantes. 

Pero eso no quiere decir que el chatbot desarrollado por OpenAI siempre sea rigoroso en todas sus respuestas. Al menos, así lo pone de manifiesto un nuevo estudio, que asegura que ChatGPT puede generar datos falsos para apoyar hipótesis científicas. 

ChatGPT y la invención de datos

Todos hemos escuchado los supuestos riesgos que puede tener para la humanidad la inteligencia artificial, algunos de ellos más propios de la ciencia ficción que de lo que parece demostrar la realidad. 

Al fin y al cabo, ChatGPT no es más que una herramienta capaz de sintetizar datos y dar respuestas a interrogantes en función a los mismos. Pero, ¿qué sucedería si esos datos no fuesen realmente ciertos?

ChatGPT revela claves gratuitas para Windows pero cuidado porque es una mala idea

Según un nuevo estudio publicado por JAMA Ophthalmology, eso es precisamente lo que sucede con la IA de OpenAI. Los científicos Andrea Taloni, Vicenzo Scorcia y Giuseppe Giannaccare, preocupados por la integridad de la inteligencia artificial a la hora de tratar ciertas hipótesis científicas, decidieron ponerla directamente a prueba. 

Su ejercicio fue sencillo: simular una investigación que giraba en torno a dos procedimientos quirúrgicos de infecciones oculares. La respuesta de la IA incluyó a 160 participantes masculinos y 140 femeninos y describió datos que, si bien de primeras parecían correctos, llegaban a conclusiones claramente equivocadas, a ojos de los expertos. 

Básicamente, ChatGPT confirmaba que uno de los métodos propuestos era más efectivo que el otro, cuando los expertos dicen que sucede exactamente al contrario. ¿El problema? Que la IA inventó información para respaldar sus hipótesis, algo que ha generado preocupación entre los científicos que realizaron el estudio. 

ChatGPT es un “generador de clichés”

Aunque la noticia parece sorprendente, en realidad puede no serlo tanto, si se mira con perspectiva. Aunque ChatGPT es una herramienta compleja y llena de posibilidades, no es ni mucho menos infalible. Su presentación, amable y muy “humana” puede ocultar la realidad: su principal función consiste en ser creíble, pero no del todo veraz. 

Según han señalado muchos especialistas, ChatGPT es incapaz de razonar, por mucho que en ocasiones pueda parecer lo contrario. ¿Qué quiere decir esto? Pues que las conclusiones a las que llega no tienen por qué ser siempre sensatas ni ciertas. El célebre profesor Ariel Guersenzvaig, por ejemplo, ya alertó que la plataforma de OpenAI “se inventa las fuentes”. 

Una conclusión a la que también llegó el vicerrector de la UNED Julio Gonzalo, que compartió en redes sociales una búsqueda acerca de poetas españoles en la que la IA se inventaba las fechas de nacimiento de muchos autores. Al parecer, para ajustarse a las peticiones que previamente el profesor le había hecho. 

¿Has qué punto puede confiarse en ChatGPT y en la inteligencia artificial en general? Esta es una pregunta que está en la mente de muchos en estos momentos. Tampoco hay que olvidar que, como se recuerda a menudo, se trata de una tecnología que aún se encuentra en pañales

Conoce cómo trabajamos en Computerhoy.