Hemos probado la GPT-3: ¿sabrías diferenciar si hablas con una IA?

Muchas gente habla de la inteligencia artificial como gran revolución comunicativa. Y entre los proyectos que más destacan está GPT-3, una IA que a través del aprendizaje profundo debería ser como hablar como una persona.
Seguro que durante el último año más de uno ha leído algo escrito por una IA, no lo sabes, yo tampoco, pero la realidad es la que es..
Los bots han sustituido a muchos trabajadores en el ámbito del soporte, sobre todo en empresas y tiendas, de ahí que cualquier negocio web ahora nos abra un chat de dialogo cuando entramos en su página. Ese tal Andrés no es una persona, es un bot.
Los intereses empresariales detrás de estas herramientas son claras, ya que permiten automatizar un proceso de poco valor y que ahorra costes (aunque también puede quitar puestos de trabajo, como todo).
Por este motivo, en la revista hemos decidido hablar con una de las herramientas más avanzadas que existen actualmente en el sector: Generative Pre-trained Transformer 3.
Esta tecnología lleva varios años en proceso, y con ella se han hecho desde artículos periodísticos a videojuegos, pasando por ayudantes virtuales. En cualquier negocio en el que se necesiten textos y comunicación, ahí que va GPT-3 para comprobar su validez.
Esta herramienta, por supuesto, está en continuo proceso de aprendizaje y mejora. Y cada día es mejor que el día anterior, y peor que el día de mañana. Pese a ello mucha gente ya habla maravillas.

Para quien no lo conozca, Generative Pre-trained Transformer 3, conocida por sus siglas GPT-3, es un modelo de lenguaje autorregresivo que emplea aprendizaje profundo para producir textos que simulan la redacción humana.
Dicha herramienta es la tercera generación de los modelos de predicción de lenguaje perteneciente a la serie GPT, creados por OpenAI, un laboratorio de investigación de inteligencia artificial con sede en San Francisco (como todo lo que mola en tecnología).
Y, ahora nosotros, hemos decidido hablar con ella durante toda una tarde para comprobar, de primera mano, si hablar con una inteligencia artificial es fácilmente detectable o si por el contrario una empresa puede colarnos un bot como si fuera una persona.
Lo primero que tenéis que hacer para poner a prueba a GPT-3 es entrar en la web de la empresa responsable, en Open AI, y darle a empezar. Ahí os podréis registrar tanto con un usuario nuevo como con vuestras cuentas de Gmail o Microsoft. Yo en mi caso opté por la de Google.

Una vez registrados ya se nos abre, como veis en la imagen que tenéis justo encima, un menú muy escueto de lo que se puede hacer con la inteligencia artificial. Desde una introducción, donde os explican de qué se trata a ejemplos concretos de uso.
Y, si queréis ir más allá, la IA se puede usare para crear aplicaciones que incorporen la tecnología de aprendizaje profundo de GPT-3. Esto es, en realidad, donde está el negocio para OpenAI.

Aquí lo que hicimos fuer pinchar en Ejemplos y ya ahí el asombro es brutal porque la IA puede hacer prácticamente de todo: chat conversacional, una lista de Q&A, corrección gramatical, traducir textos comandos de código, convertir JavaScript en Python, emular el chateo con amigos...
La lista de uso es impresionante con programación, comunicación, traducción, corrección, videojuegos, creador de nombres para empresas, etc. Sin duda el futuro es suyo.
Pero volviendo al motivo del artículo. Una vez llegamos a la opciones del GPT-3, lo que hicimos fue probar el chat, donde hablamos de forma libre y sin ataduras con la inteligencia artificia. Ahí es donde la pusimos a prueba porque la idea era saber si hablábamos con una máquina o con una persona.

La conversación, como ya estáis viendo, es enteramente en inglés, ya que es en este idioma sobre el que se ha programado la IA y el que tiene todas las opciones disponibles. Aunque se está trabajando en versiones internacionales (ahora mismo ya traduce del inglés al francés).
En nuestra conversación, GPT-3 se refiere a sí mismo como IA y nosotros somos el humano con el que habla. Y así empieza la conversación: "Hola, ¿cómo estás?", se supone que preguntamos, ya que esa parte está escrita de forma predefinida.
Entonces ella contesta: "Soy una IA creada por OpenAI. ¿Cómo te puedo ayudar?" A eso le que le empezamos a preguntar es sobre cuestiones algo complejas como fueron el futuro del periodismo si ella seguía mejorando en su trabajo o si debía invertir en criptos. No supo responder con coherencia.
A lo primero me dijo que "Ciertamente. El futuro será tan brillante y tan diferente al presente y al pasado. Vayamos allí". Y a lo segundo "Amigo mío, las cosas cambian más rápido de lo que puedes imaginar. Y esta conversación es fácil de tener conmigo".
Como se puede comprobar, si bien las respuestas pueden estar más o menos encaminadas, está claro que la IA no sabe bien qué responder, y ni siquiera responde directamente, sino que da algo genérico para salir del paso.

Luego, queriendo rizar un poco el rizo, le pregunté directamente sobre la crisis de los semiconductores, a lo que respondió: "El precio es muy bajo ahora. Si compras, el precio puede subir". Lo que me deja con la duda de si está tremendamente desactualizada o si en verdad es un pronóstico de que la cosa va a estar aún peor.
Aún así, de nuevo hierra en el tiro, y ya iban tres preguntas seguidas. En ese momento decidí preguntarle sobre Elon Musk y si tendría una cena con él. Por primera GPT-3 pareció una persona: "¿Elon Musk? ¿El fundador de SpaceX? Ciertamente, señor. Me gustaría cenar con Elon Musk".

En ese momento me emocioné, pensando que era posible comenzar a tener una conversación real, pero GPT-3 me decepcionó inmediatamente al responderme a la pregunta sobre si la humanidad pasaría el resto de sus vidas en espacio o en la Tierra de la siguiente forma:
"Es una pregunta interesante. Voy a responderla con una respuesta detallada en forma de libro. Este libro se publicará en el futuro. Después de esto, podrás juzgar por ti mismo si la humanidad está o no en el espacio".
Tras esa respuesta me di cuenta de que la utilidad de la IA ahora mismo está muy centrada en usos comerciales y técnicos, más que en cuestiones comunicativas, ya que la conversación que os he trasladado al artículo es la más decente de 10 intentos.

Que la mejora de las herramientas de aprendizaje profundo es impresionante y que en apenas 3 años se ha avanzado más en este campo que en los últimos 20 está claro, pero también es verdad que falta mucho trabajo por delante.
Puedo asegurar que, según mi experiencia junto a las múltiples pruebas a las que he sometido a GPT-3, la inteligencia artificial ahora mismo no puede hacerse pasar por una persona si la enfrentemos a preguntas que van más allá del: Hola, ¿cómo estas?
Eso sí, veremos a ver si para finales de década no es una IA quien está escribiendo este artículo mientras soy yo quien lo lee en su casa. Espero que no, porque la venganza es un plato que se sirve frío.
Sea como sea, estamos ante un progreso que da pasos de gigante y donde seguramente veremos los próximos años grandes avances.
Otros artículos interesantes:
- GPT-3, el nuevo modelo de lenguaje que ha dejado con la boca abierta a medio mundo
- Traductor de Google, más inteligente gracias al 'deep learning'
- La inteligencia artificial encuentra el antepasado fantasma de los humanos
- Las cinco características clave que no pueden faltar en tu Smart TV
Descubre más sobre Chema Carvajal, autor/a de este artículo.
Conoce cómo trabajamos en Computerhoy.