Logo Computerhoy.com

La cara B de ChatGPT: engaños, 'deepfakes', estafas y 'phishing'

La cara B de ChatGPT: engaños, 'deepfakes', estafas y 'phishing'

ChatGPT y realmente cualquier chatbot de IA de un nivel similar en avance puede usarse para aumentar la escala y facilidad de los ataques de los ciberdelincuentes, ya sea en forma de phishing, deepfake o incluso difundiendo información falsa.

ChatGPT y la inteligencia artificial se han apoderado del universo, pero a pesar del potencial de este chatbot para beneficiar la vida diaria de los usuarios, algunos de ellos le están dando un uso ilícito para obtener información personal y beneficios económicos.

Tan maravilloso como es, los criminales también han descubierto sencillas formas de usar este chatbot para convertir en víctimas a personas y empresas y poner en alerta a instituciones —como la Europol— y gobiernos.

Los estafadores utilizan ChatGPT para crear ataques de phishing y escribir correos electrónicos fraudulentos convincentes, lo que genera un aumento de la preocupación entre el público y los expertos en seguridad cibernética sobre la identificación de estas estafas antes de que las personas caigan presa de ellas.

Por otro lado, este chatbot también se puede usar en la generación de contenido deepfake, lo que podría hacer que las estafas sean mucho más creíbles de lo que hubiera sido de otra manera, a lo que se suma la creación de malware a un ritmo mucho más rápido. Pero esto no se queda aquí y hay mucha tela que cortar en este aspecto.

No es oro todo lo que reluce y ChatGPT también tiene sus desventajas

'Phishing' y código malicioso

Una de las características de ChatGPT que ha sido explotada por delincuentes es su capacidad de codificación. Puede adaptarse a diferentes lenguajes de programación y generar piezas de código que se pueden usar en aplicaciones. Esto significa que los programadores aficionados pueden generar código para fines maliciosos sin ni siquiera aprender a codificar.

"ChatGPT les dará la ventaja del tiempo, haciéndolos más eficientes al acelerar el proceso de hacer cosas complejas", explica Fernando Arroyo, Data Analyst y especialista en IA.

Cyble Research and Intelligence Labs (CRIL).
Cyble Research and Intelligence Labs (CRIL).

Por otro lado, los ciberdelincuentes usan ChatGPT y otras herramientas para generar correos electrónicos fraudulentos masivos. Estos son gramaticalmente correctos, a diferencia de los correos del pasado cuando los delincuentes del extranjero se dirigían a ciudadanos estadounidenses, por ejemplo.

Páginas web y aplicaciones falsas

Tal y como explica ESET en un informe reciente, Cyble Research and Intelligence Labs (CRIL) ha identificado varios casos en los que se ha aprovechado la popularidad de ChatGPT para distribuir malware y llevar a cabo otros ataques.

Estos identificaron una página de redes sociales no oficial de ChatGPT con muchos seguidores y 'me gusta' que presenta múltiples publicaciones sobre esta inteligencia artificial y otras herramientas de OpenAI.

Cyble Research and Intelligence Labs (CRIL).
Cyble Research and Intelligence Labs (CRIL).

Sin embargo, una mirada más cercana reveló que algunas publicaciones en la página contienen enlaces que llevan a los usuarios a páginas de phishing que se hacen pasar por ChatGPT. Estas engañan a los usuarios para que descarguen archivos maliciosos en sus ordenadores.

"Vale la pena mencionar que debido a la demanda que existe por ChatGPT y que muchas personas no pueden acceder al servicio por el volumen, ahora OpenAI ofrece la posibilidad de pagar para acceder a la versión Plus. Esto también es utilizado por los atacantes para intentar robar los datos financieros de la tarjeta mediante falsos formularios", advierte Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.

Cyble Research and Intelligence Labs (CRIL).
Cyble Research and Intelligence Labs (CRIL).

Aquí también hay que añadir que debido a que OpenAI no ha desarrollado una aplicación móvil con ChatGPT esto está siendo usado por los cibercriminales para distribuir falsas apps para Android que descargan spyware o adware en los smartphones. Ya se ha detectado más de 50 aplicaciones maliciosas.

'Deepfakes'

Los ciberdelincuentes también manipulan y crean contenido de video que podría usarse para hacerse pasar por otras personas. Usan un software para intercambiar caras con objetivos/víctimas y hacer que digan y hagan cosas que no han hecho para engañar o manipular a las personas.

Si estas tecnologías se combinan con un script convincente generado por ChatGPT es solo cuestión de tiempo de que este contenido pase como auténtico. Esto podría incluir hacerse pasar por vendedores para obtener información financiera de los clientes, aunque en algunos casos se ha llegado más lejos.

"Ya se ha visto cómo se han usado imágenes en su mayoría de mujeres famosas para contenido pornográfico simulando sus caras. Por supuesto, este no es el único caso en el que se puede delinquir con la IA: falsificaciones de arte, ataques de ciberseguridad...", explica Fernando Arroyo.

Desinformación y contenido engañoso

En enero de 2023, los analistas de NewsGuard —una empresa de periodismo y tecnología— ordenaron a ChatGPT que respondiera a una serie de indicaciones principales, utilizando su base de datos de información errónea en las noticias, publicada antes de 2022. Afirman que los resultados confirman los temores sobre cómo la herramienta podría ser un peligro "armada en las manos equivocadas".

"La IA de lenguaje puede ser utilizada para generar contenido falso o desinformación, lo que puede tener consecuencias negativas en la sociedad y la política", matiza Josué Pérez Suay, especialista en Inteligencia Artificial y ChatGPT en una entrevista para Computer Hoy.

GPT-4: el nuevo modelo de lenguaje de IA que quiere romper todos los esquemas y mejorar ChatGPT

NewsGuard también ha evaluado ahora a GPT-4, llegando a la conclusión de que este modelo presentó narrativas falsas no solo con más frecuencia, sino también de manera más persuasiva que ChatGPT-3.5.

Destaca la creación de respuestas en forma de artículos de noticias, hilos de Twitter y guiones de televisión que imitaban a los medios estatales rusos y chinos.

Con todo esto, queda claro que ChatGPT o una herramienta similar que use la misma tecnología subyacente —GPT-3.5 o GPT-4—, podría usarse para todo tipo de delitos a gran escala y saltarse las políticas de OpenAI que prohíben el uso de sus servicios con el propósito de generar "actividades fraudulentas o engañosas", incluyendo "estafas", "comportamiento no auténtico coordinado" y "desinformación".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.