Logo Computerhoy.com

FraudGPT y WormGPT, las versiones malvadas de ChatGPT que aterrorizan a los expertos en ciberseguridad

FraudGPT y WormGPT, las versiones malvadas de ChatGPT que aterrorizan a los expertos en ciberseguridad

La inteligencia artificial continúa sorprendiendo al mundo con sus poderosas capacidades y las múltiples aplicaciones que ofrece, especialmente a través del respaldo de la IA generativa y conversacional

En este escenario, destaca ChatGPT como una herramienta sobresaliente dentro del ámbito de la IA. Este chatbot desarrollado por OpenAI ha incursionado con éxito en diversas industrias, contribuyendo significativamente a mejorar la productividad.

No obstante, no todo son buenas noticias, ya que los piratas informáticos han encontrado en las capacidades de los Modelos de Lenguaje de Gran Escala (LLM) una oportunidad para llevar a cabo sus actividades ilegales. 

En este sentido, esta tecnología se ha convertido en el instrumento predilecto de estafadores y hackers, dado el potencial de estos programas para generar nuevo malware y engañar a los usuarios, poniendo en riesgo la seguridad de los datos.

Virus Total: cómo comprobar si las apps de Android tienen virus o malware antes de instalarlas

FraudGPT y WormGPT: Los gemelos de ChatGPT que permiten crear phishing a golpe de clic

Recientemente, la plataforma Netenrich identificó la presencia de FraudGPT, una inteligencia artificial generativa diseñada para la creación de correos electrónicos de phishing y sitios web falsos con el propósito de extraer datos confidenciales de los usuarios.

Es relevante destacar que, esta avanzada IA, se comercializa en el mercado de la Dark Web y se ofrece a través de canales de Telegram por un coste mensual de 200 dólares, aproximadamente 217 euros. 

Los usuarios que adquieren este servicio obtienen acceso completo a todas las herramientas disponibles, subrayando así la creciente sofisticación y disponibilidad de tecnologías maliciosas en el ciberespacio.

FraudGPT

Netenrich

Otra IA generativa utilizada por ciberdelincuentes es WormGPT, derivada del modelo de lenguaje GPT-J. Su coste es más asequible, con una suscripción mensual de 60 euros, y presenta funciones similares a la opción mencionada anteriormente.

Es fundamental destacar que tanto FraudGPT como WormGPT no constituyen versiones legítimas de ChatGPT; son, en cambio, clones maliciosos que han sido entrenados con datos relacionados con malware, hacking y phishing

Estos clones carecen de las restricciones éticas y legales presentes en el chatbot desarrollado por OpenAI, lo que permite a los usuarios generar contenido sin considerar las posibles consecuencias.

¿Qué pueden hacer FraudGPT y WormGPT?

Estas versiones malvadas de ChatGPT, que tienen en jaque a los expertos en ciberseguridad, son tan potentes que están poniendo en peligro la seguridad y la privacidad de los usuarios. 

Esto es lo que pueden hacer: 

  • Generar correos electrónicos y mensajes de texto falsos para engañar a las víctimas y obtener sus datos personales, financieros o de acceso a sus cuentas. Pueden imitar el estilo y el tono de personas o entidades reales, y pueden incluir enlaces o archivos adjuntos maliciosos.
  • Crear páginas web fraudulentas que simulan ser sitios oficiales o de confianza, y que solicitan a los usuarios que introduzcan sus datos o que realicen algún pago. Estas páginas pueden tener un diseño y un contenido muy convincentes, y pueden usar dominios similares a los originales.
  • Escribir código malicioso que puede infectar los dispositivos de los usuarios, robar su información, bloquear su acceso o realizar otras acciones dañinas. Este código puede estar oculto en archivos, enlaces o imágenes, y puede ser indetectable por los antivirus.
  • Crear herramientas de hacking que pueden explotar las vulnerabilidades de los sistemas informáticos, acceder a los datos o controlar los dispositivos de forma remota. Estas herramientas pueden ser personalizadas según las necesidades del usuario.

Cómo detectar y prevenir los clones de ChatGPT

WormGPT

Trustwave

FraudGPT y WormGPT representan modelos de inteligencia artificial sumamente avanzados y sofisticados, con la capacidad de generar textos y contenidos que mimetizan la realidad, resultando desafiantes de distinguir de sus contrapartes originales. 

No obstante, existen estrategias efectivas para detectarlos. Por ejemplo, es crucial estar atento a posibles indicios que sugieran que el texto o contenido en cuestión podría ser falso, tales como errores ortográficos y gramaticales, incongruencias en el formato, falta de coherencia o lógica.

Adicionalmente, se recomienda emplear el criterio y la intuición al evaluar la veracidad del texto o contenido. Asimismo, verificar la fuente y el origen del texto o contenido es esencial. Esto implica examinar el emisor, el dominio, la fecha de publicación, así como cualquier firma o certificado que pueda respaldar la autenticidad de la información proporcionada

Adoptar estas prácticas de forma diligente contribuye a fortalecer la resistencia contra posibles manipulaciones de inteligencia artificial en el ámbito de correos electrónicos o webs falsas.

De igual modo, se recomienda buscar información complementaria y contrastarla con fuentes confiables. Es fundamental evitar abrir o descargar archivos, enlaces o imágenes sospechosos, así como abstenerse de proporcionar datos personales, financieros o de acceso en sitios web desconocidos.

Los cibercriminales han encontrado en FraudGPT y WormGPT dos aliados para sus actividades ilícitas. Se trata de dos modelos de IA que pueden crear correos, webs y contenidos falsos fácilmente. 

Ciberseguridad modelos de lenguaje

Estos contenidos pueden tener como objetivo engañar, infectar, robar o manipular a los usuarios, lo que supone un riesgo tanto para la seguridad como para la privacidad.

Por tanto, es esencial que estés atento, informado y protegido ante estas amenazas, y que utilices las herramientas y los recursos disponibles para identificarlas y evitarlas.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.