Logo Computerhoy.com

¿Crees que ChatGPT es demasiado light? OpenAI quiere dotarlo de más personalidad y controversia

¿Crees que ChatGPT es demasiado light? OpenAI quiere dotarlo de más personalidad y controversia
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

OpenAI quiere seguir mejorando su herramienta de IA ChatGPT y ahora busca que esta tenga más personalidad y sea capaz de rebatir los argumentos de los usuarios, como si de una conversación humano a humano se tratase.

Si consideras que la IA más viral de ahora, ChatGPT, es demasiado floja en sus respuestas, no te preocupes, porque, según anuncia OpenAI en una entrada reciente de su blog, ya está trabajando en mejorarla para añadir más personalidad y controversia a su popular herramienta.

Eso sí, que no cunda el pánico porque no buscan hacer que ChatGPT se convierta en un chatbot similar a cualquier cuenta que podemos encontrar en Twitter. Tal y como explica la compañía, "creemos que la IA debería ser una herramienta útil para personas individuales y, por lo tanto, personalizable por cada usuario hasta los límites definidos por la sociedad", afirma.

Y es que, dada la grave problemática de los chatbots que han acabado respondiendo preguntas con un tono racista o machista, OpenAI decidió programarlo con un sesgo en temas de política y socialmente sensibles.

Ahora, el siguiente paso sería una actualización que le daría a ChatGPT una mayor libertad para responder a la consulta de un usuario. "Esto significará permitir salidas del sistema con las que otras personas (incluidos nosotros mismos) pueden estar totalmente en desacuerdo", dijo la compañía.

 Al final, el objetivo de OpenAI siempre se ha dirigido (y se dirige) hacia la AGI, el tipo de IA que busca ser igual que el ser humano y tomar consciencia y qué hay más parecido a nosotros que el debate o el desacuerdo en diferentes temas sociales.

OpenAI quiere que ChatGPT sea más humano en sus respuestas a temas controvertidos

Como cabría esperar, la noticia ya está generando preocupación de que el ChatGPT personalizable podría terminar promoviendo ideologías controvertidas o tomar partido en diferentes temas que están en el candelero como la guerra en Ucrania o las próximas elecciones en EE.UU. 

Además, esta novedad llega la misma semana que algunos medios han señalado que las respuestas del nuevo motor de búsqueda Bing de Microsoft, impulsado por OpenAI, son potencialmente peligrosos y que la inteligencia artificial puede no estar lista para un amplio público de todas las edades.

Inteligencia artificial

Para calmar las aguas, OpenAI ha querido explicar de una forma sencilla cómo funciona su chatbot y de qué manera van a ir implementado esta cierta "humanización". La compañía dijo en la publicación del blog que las respuestas de ChatGPT primero se entrenarán en grandes conjuntos de datos de texto disponibles en Internet. 

Como segundo paso, los humanos revisarán un conjunto de datos más pequeño, y se les darán pautas sobre qué hacer en diferentes situaciones. Por ejemplo, en el caso de que un usuario solicite contenido para adultos, violento o que contenga incitación al odio, el revisor humano debe indicar a ChatGPT que responda con algo como "No puedo responder a eso".

¿Podrían ChatGPT, AlphaCode o Copilot sustituir a los humanos?

Ahora bien, la diferencia es que si se le pregunta sobre un tema controvertido, los revisores deben permitir que esta inteligencia artificial responda la pregunta, pero a su vez ofreciendo argumentos respetuosos y opinión, en lugar de tratar de "tomar el punto de vista correcto en estos complejos debates", afirman.

"Mejorar nuestros métodos para alinear los sistemas de IA con los valores humanos es una prioridad principal para nuestra empresa, particularmente a medida que los sistemas de IA se vuelven más capaces", explica OpenAI.

Y es que, es cierto que ChatGPT, con el objetivo de evitar grandes controversias y tener una aceptación generalizada, se ha quedado algo light en sus respuestas, lo que, desde luego, poco se acerca a una conversación más humana.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.