Logo Computerhoy.com

GPT-4 habría pasado la prueba o test de Turing, y no es una buena noticia

La preocupante prueba de Turing que han hecho estos científicos poniendo en liza distintas inteligencias artificiales en conversación con seres humanos.

Ser humano interactuando con una IA

Generada con IA

Foto del redactor David Hernández

Durante décadas el ser humano ha estado interactuando con inteligencia artificial, pero sabiendo en todo momento que estaba frente a una máquina, y es que parecía lejos de que una IA pudiera parecer indistinguible de un humano.

Pero con el advenimiento de los modelos de lenguaje grandes, estas inteligencias conversacionales que están ya presentes en la mayoría de aplicaciones que nos rodean, han recibido un gran avance, que incluso podrían hacerlas ya casi indistinguibles de un ser humano.

Hay que remontarse a la prueba de Turing creada en 1950, aquella herramienta de evaluación de la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o bien hacerlo indistinguible de este.

Y parece ser, que la última versión de GPT ha logrado superar el test de Turing, aunque bajo una prueba algo simple.

En concreto, los investigadores pidieron a distintas personas que conversaran con cuatro agentes, tres máquinas de inteligencia artificial y un ser humano, y evidentemente no sabían si estaban hablando con uno o con otro.

En concreto las máquinas eran ELIZA, una inteligencia artificial de la década de 1960, la versión GPT 3.5 y la nueva versión GPT-4.

Estas conversaciones solo duraron cinco minutos, y después de ella los participantes tenían que decidir si creían que habían estado hablando con un humano o bien con una inteligencia artificial.

Preocupantes resultados

Curiosamente, el 54 % de todas las personas que participaron en este proyecto, pensaban que GPT-4 era un ser humano, pero en realidad es una IA. Por otra parte ELIZA solo logró engañar al 22 % de los participantes y GPT 3.5 al 50%.

"Las máquinas pueden confabular, mezclando justificaciones ex post-facto plausibles para las cosas, como lo hacen los humanos", dijo Nell Watson, investigadora de IA en el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). 

"Pueden estar sujetos a sesgos cognitivos, engañados y manipulados, y se están volviendo cada vez más engañosos. Todos estos elementos significan que en los sistemas de IA se expresan debilidades y peculiaridades humanas, lo que los hace más parecidos a los humanos que los enfoques anteriores que tenían poco más que una lista de respuestas preparadas."

Evidentemente este estudio arroja ciertas preocupaciones a los científicos, porque la versión más avanzada actual de GPT, que es la que lleva ChatGPT, ha logrado engañar a más de la mitad de las personas. 

Conoce cómo trabajamos en Computerhoy.

Etiquetas: Inteligencia artificial