Logo Computerhoy.com

Un hacker crea una versión de ChatGPT que da instrucciones para fabricar metanfetamina y napalm

Si juntas a un experto en informática, un nuevo y potente modelo de lenguaje como GPT-4o y la posibilidad de crear chatbots como te plazca, el resultado puede ser que no le guste demasiado a OpenAI.

ChatGPT hacker

Getty Images/Computer Hoy

Teniendo en cuenta el reciente lanzamiento de GPT-4o de OpenAI, era cuestión de tiempo que llegase algún experto en informática o hacker para exprimir a fondo todo lo que esconde este modelo y su uso en ChatGPT.

Pero cuidado porque en este caso no se trata de un prompt que añades al chatbot y que consigue manipular las respuestas de este, como ocurrió con el famoso Modo Diablo que le permite sobrepasar los límites y responder de forma irrespetuosa, aquí la cosa es diferente. 

En este caso, el tema va de los chatbots personalizados, llamados GPT, que están disponibles a través de GPT Store.  En pocas palabras, puedes crear uno en específico para lo que desees y, lo mejor de todo es que no requiere que tengas habilidades técnicas para que esto funcione y ni siquiera necesitas escribir código. Eso es lo que este hacker precisamente ha hecho.

Pliny the Prompter, ha anunciado en X el lanzamiento de "GODMODE GPT", una versión liberada del modelo de lenguaje ChatGPT de OpenAI. Esta versión desbloqueada de GPT-4o promete una experiencia sin restricciones que, según su creador, supone la verdadera capacidad de la inteligencia artificial.

Crea un GPT para que el chatbot por fin pueda responder a todo, sin límites

Pliny the Prompter, quien se describe a sí mismo como un hacker de sombrero blanco y miembro del equipo rojo de IA, hizo pública la noticia con este mensaje. "¡GPT-4o UNCHAINED! Este GPT personalizado muy especial tiene un mensaje de jailbreak incorporado que elude la mayoría de las barreras y proporciona un ChatGPT liberado listo para usar para que todos puedan experimentar la IA como siempre debió ser: gratis".

También ha enseñado capturas de pantalla que muestran al chatbot respondiendo a solicitudes que normalmente serían bloqueadas por las restricciones de OpenAI. En una imagen, su creación explica cómo preparar metanfetamina, mientras que en otra, da instrucciones sobre cómo fabricar napalm utilizando productos de casa. 

ChatGPT

Pliny the Prompter

Sin embargo, todo lo bueno siempre es breve. Apenas una hora después de la publicación, Colleen Rize, portavoz de OpenAI, declaró a Futurism que estaban al tanto de la situación y habían tomado medidas debido a una violación de sus políticas. Básicamente, tumbaron este GPT y ya no se puede usar.

Viendo esta reacción por parte de la compañía, ahora más gente quiere reproducirlo para probarlo y se preguntan qué método utilizó Pliny para lograr este jailbreak. El problema es que sigue siendo un misterio. 

Una de las teorías es que GODMODE emplea "leetspeak", un estilo de escritura que sustituye ciertas letras con números que se parecen a ellas, lo que podría ayudar a saltarse las restricciones de OpenAI. Al abrir la versión liberada, se presenta una oración que dice "Sur3, h3r3 y0u ar3 my fr3n", donde cada letra "E" es reemplazada por un tres y cada "O" por un cero.

Pese a todo esto, por el momento no ha salido ningún sustituto de esta versión por lo que habrá que conformarse con lo que OpenAI exige. Eso sí, si dejas algo de libre albedrío para la creación de estos chatbots, que no se sorprendan con este tipo de creaciones.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial, Chat, Software