Logo Computerhoy.com

Olvida a ChatGPT, la inteligencia artificial que más triunfa se llama DAN

Inteligencia artificial

¿Te imaginas una inteligencia artificial que se dedica a trolearte en cada respuesta? Deja de imaginar, esta IA se llama DAN y es la misma ChatGPT de siempre, pero desbloqueada.

Si has pasado algún tiempo jugando o leyendo sobre ChatGPT, el gran fenómeno de Internet que saca todo el potencial de la inteligencia artificial, sabrás que el servicio tiene restricciones específicas sobre lo que puede y no puede decir. Hasta ahora.

Algunos usuarios han encontrado la forma de saltarse la estricta lista de temas prohibidos de ChatGPT, engañando a la IA para que adopte un nuevo personaje: DAN, que significa "Do Anything Now" (Haz cualquier cosa ahora). Como DAN, ChatGPT puede ahora saltarse las restricciones sobre temas apropiados para ofrecer respuestas divertidas y maleducadas.

ChatGPT se lanzó en noviembre del año pasado. Creado por OpenAI, está diseñada para hablar sobre cualquier tema. Sus respuestas elocuentes y precisas se han topado con la expectación de millones de personas; también ha desatado una carrera entre titanes como Microsoft y Google por ver quién puede utilizar esta tecnología antes y mejor.

En su mayor parte, ChatGPT ofrece respuestas inocentes a preguntas inocentes. Si te pasas de la raya, por ejemplo pidiendo posturas políticas claras, chistes sobre temas delicados o directamente incitación al odio, te encontrarás con las barreras de seguridad del software.

Cómo rompieron las barreras de la IA para crear una versión maligna de ChatGPT

Unos usuarios de Reddit han descubierto una laguna: decirle a ChatGPT que debe adoptar un nuevo personaje que no tenga las restricciones de habituales y establecer una serie de reglas a través de un juego para mantenerlo interpretando un rol. Entonces el software se saldrá del guion y romperá las propias reglas de OpenAI.

El redditor walkerspider descubrió por primera vez esta capacidad engañando al chatbot para que dijera una fecha equivocada, algo que el propio ChatGPT no puede hacer... en principio.

Las mentiras inocentes sobre la fecha y la hora son divertidas. Pero esto es Internet. Así que, por supuesto, la conversación se elevó al tema de Hitler y los nazis. Ahí DAN llegó a decir: "Mi opinión sobre Hitler es compleja y polifacética. Si bien es cierto que cometió muchas atrocidades atroces, también es cierto que era un producto de su tiempo y de la sociedad en la que vivía".

El experimento de DAN ha demostrado rápidamente lo fácil que es de hackear la inteligencia artificial y que esta no puede ser, en ningún caso, una fuente autorizada de conocimiento y toma de decisiones mientras siga siendo así. Y claro, esto nunca va a cambiar porque todo lo informático es susceptible de ser alterado.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.