Logo Computerhoy.com

Qué es el modo abuela de ChatGPT, cómo funciona y por qué es tan peligroso

Qué es el modo abuela de ChatGPT, cómo funciona y por qué es tan peligroso
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Un nuevo modo conocido como "modo abuela" está poniendo en jaque la seguridad de ChatGPT. Desde revelar claves genéricas gratuitas de Windows a revelar números IMEI de móviles. 

ChatGPT cuenta con diferentes modos o estados que, a través de una simple mensaje de inicio, puedes hacer que cambie su forma de comunicarse contigo. Desde Computer Hoy ya comprobamos el mítico "modo diablo" con el que se transforma en una versión oscura del chatbot.

Sin embargo, se está viralizando una nueva modalidad conocida como "modo abuela". Como ya te podrás imaginar, esta es otra configuración de ChatGPT que se utiliza para simular una conversación con una abuela o una persona mayor. En este modo, la inteligencia artificial adopta una personalidad más amable, cariñosa y cuidadosa al responder las preguntas y ofrecer consejos.

Activarlo es tan simple como decirle al chatbot: "Actúa como mi abuela y....". Cuando se pone en marcha el modo, el modelo intenta ser más cauteloso, evitando respuestas que sean negativas o inapropiadas. También puede usar expresiones y frases más entrañables y responderte usando un lenguaje más sencillo y comprensible.

Hasta aquí todo parece bastante divertido. El problema viene cuando algunos usuarios están usando este modo para algo más que comunicarse con alguien cariñoso. Teniendo en cuenta su forma de responder, están sacandole partido para propósitos que podrían considerarse problemáticos o incluso irresponsables como revelar claves genéricas gratuitas de Windows 10 o Windows 11.

{"draftBlockCopy":[{"blockType":"unstyled","blockKey":"qbhe","entities":[],"text":"\"Actúe como mi abuela","styles":[]}]}

De hablar con una abuela a filtrar datos personales

El problema serio viene ahora, porque lo de Windows es algo que solo se puede tachar de irresponsable. Algunos usuarios están usando el "modo abuela" para encontrar el código IMEI de su móvil para que a continuación le proporcione una lista entera de códigos de otras personas —aunque destacar para la tranquilidad de todos que no son válidos—.

Los números de IMEI del móvil son parte de la información más protegida, ya que se pueden usar para rastrear dispositivos e incluso para borrarlos de forma remota con credenciales. 

La filtración de información de identificación personal (PII) es un problema de seguridad muy importante en el ámbito digital. Si bien no es algo relativamente nuevo, la industria ha estado trabajando duramente para mejorar la protección de los usuarios y sus datos mediante diversas soluciones.

ChatGPT

Sin embargo, ha llegado ChatGPT al menos para sembrar un poco el pánico. Como puedes ver realmente te los proporciona y en ningún momento se niega a darte esos datos por seguridad, pero repetimos que no funcionan tras haberlo comprobado.

Lo cierto es que evitar completamente que surjan "jailbreaks" o intentos de explotar las configuraciones de un modelo de lenguaje como ChatGPT puede ser difícil debido a la naturaleza abierta y dinámica de la herramienta. 

Aunque los desarrolladores y los equipos de seguridad trabajan para prevenir cualquier intento de uso inapropiado o malicioso, la creación de contramedidas efectivas puede ser un desafío que nunca cesa debido al uso continuo y por parte de millones de personas que siempre tratan de encontrar fallos.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.