Logo Computerhoy.com

Así funcionan las nuevas estafas telefónicas 3.0: inteligencia artificial al servicio de los ciberdelincuentes

Voces clonadas con IA

Gettyimages

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

  • Más allá de los correos electrónicos y mensajes falsos que llegan a tu móvil, los delincuentes están usando una nueva forma de engañar a las personas para que compartan información privada: el uso de las voces clonadas con IA.
  • "En este momento parece más bien un método de ataque de lujo, pero en los próximos meses y años lo más probable es que se aplique en masa y realmente cree un ciberciclón de fraude".

La clonación de voz con inteligencia artificial es solo una de las muchas herramientas de IA que han cobrado importancia en el 2023 y vuelve a ocupar portadas en 2024.

Sin ir más lejos, la gigante tecnológica china, ByteDance, la empresa que se esconde detrás de TikTok, hace unos días fue noticia por el lanzamiento de StreamVoice, una herramienta, impulsada por inteligencia artificial, que permite a los usuarios transformar sus voces, en directo y con una enorme calidad para imitar a otras personas. Por así decirlo, el caldo de cultivo perfecto para los delincuentes.

¿Por qué? Pues resulta sencillo. Imagina recibir una llamada de un amigo o incluso un familiar pidiéndote información confidencial o diciéndote que necesitan que hagas una transferencia bancaria. Todo parece real, sobre todo porque reconoces su voz. Pero ¿y si no son ellos?

Si bien es cierto que para que esto realmente se lleve a cabo los estafadores necesitan tener muestras de audio real de esas personas, la velocidad con la que esta tecnología está evolucionando, si además se tiene en cuenta el fácil acceso a estas herramientas, preocupa.

Ciberseguridad trabajo

"Se estima que en los próximos años este tipo de delitos vaya en aumento, pudiendo llegar a suponer un gran riesgo para los individuos debido a la complejidad de identificación del fraude, que con el tiempo también resulta probable que experimente múltiples mejoras", explicaron en una anterior entrevista Raquel Puebla e Itxaso Reboleiro, analistas de ciberinteligencia en Innotec Security Part of Accenture.

Al final, un fragmento de la voz de alguien de una conversación es suficiente para que un delincuente lo utilice para generar conversaciones muy realistas que, en última instancia, son falsas. Si alguien conoce tu parentesco con otra persona y la graba para utilizarlo en tu contra, estás perdido casi con un 100% de probabilidad.

"Es evidente que necesitamos no solo una mejor regulación al respecto, sino, también, dotar a los Cuerpos y Fuerzas de Seguridad de herramientas suficientes para enfrentarse al ciberdelito en general y, en concreto, a las nuevas actividades delictivas que estamos ya viendo y que seguirán evolucionando en torno a la IA", explica en una entrevista para Computer Hoy Miguel López, Director General de Barracuda Networks.

Entonces, ¿cómo se podrían identificar este tipo de llamadas falsas creadas con IA?

En cuanto a cómo se podría revolver este gran problema que solo va a ir a más, es posible que existan varias formas de acabar con ello.

Bien es cierto, y teniendo en cuenta que al tratarse ya de herramientas que transforman las voces ya en directo, resulta muy complejo comprobar si se trata de tu familiar o no, a no ser que comiences a desconfiar de todo el mundo y te dediques a hacer preguntas clave que solo la persona real conoce.

Sin embargo, hay cosas todavía por hacer. Por ejemplo, empresas tecnológicas, como Google o Microsoft, podrían desarrollar algoritmos de detección de deepfakes para proteger sus propios productos y servicios. 

Los gobiernos, por su parte, de la misma forma podrían implantar herramientas similares, para proteger a sus ciudadanos de la desinformación y el fraude. Lo mismo ocurre con las compañías de telecomunicación.

ley de inteligencia artifiicial

El problema llega cuando las llamadas, en lugar de producirse con una empresa, un hotel o con, por ejemplo, el banco, ocurre, como antes se comentaba, entre familiares o amigos. ¿Cuál es entonces la solución?

En este caso parece que la "solución" recae directamente en ti. Teniendo en cuenta que solo vas a contar con tus propios oídos para lograr identificar si se trata o no de una llamada falsa, hay ciertos aspectos que puedes tener en cuenta:

  • Sospecha si la llamada se realiza de un número extraño.
  • ¿Notas la voz de esa persona algo rara, como sin vida o incluso un poco robótica? Cuidado.
  • Si tampoco realiza demasiadas pausas a la hora de hablar, puede ser un gran indicativo.
  • En estos casos, si le haces una pregunta, notarás que la respuesta, pese a que ya se catalogan como "en directo", va a tener una pequeña pausa antes de que continúe hablando como dos o tres segundos.
  • Es probable que también notes demasiada prisa para que tú hagas determinado movimiento en tu cuenta o le des demasiados datos personales.

Tal y como explica el experto entrevistado, "deberíamos aplicar mayores dosis de sentido común a la hora de no compartir excesiva información sobre nosotros mismos y/o nuestras organizaciones en cualquier tipo de red social. 

También dotarnos de formación en ciberseguridad para poder identificar posibles ataques y saber reaccionar a ellos. Y, por supuesto, de medios técnicos y herramientas de ciberseguridad que eviten o, al menos, limiten los daños de un ciberataque de este tipo".

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.