Logo Computerhoy.com

Voces clonadas con IA: la última moda entre los delincuentes para realizar estafas telefónicas

Hacker con un móvil en la mano

Depositphotos

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Pese a los grandes usos de la inteligencia artificial, se está dando un tipo de ataque muy sofisticado y revolucionario que hace uso de esta tecnología para clonar las voces de un familiar o amigo y extorsionar a la víctima.

El mundo está experimentando una revolución digital impulsada por la inteligencia artificial. A medida que esta tecnología avanza, también lo hacen las formas en que se puede utilizar para fines no tan positivos como se querría. 

Uno de los aspectos más preocupantes de estos avances es la capacidad de clonar voces humanas con una precisión hasta entonces nunca vista. Si bien esta tecnología tiene aplicaciones legítimas, como la voz en off en películas o la asistencia para personas con discapacidades, también ha caído en manos equivocadas. 

Por ejemplo, las estafas telefónicas con voces clonadas se están convirtiendo en una amenaza que no deja de crecer y que cada vez es más sofisticada y difícil de detectar.

"Durante los últimos años, las estafas más comunes en relación con las voces clonadas por IA generalmente están vinculadas a un objetivo económico. Por ejemplo, en diversos países se han denunciado campañas en las que los estafadores han clonado la voz de familiares o conocidos de sus víctimas y han utilizado como señuelo un presunto problema o urgencia en la que necesitan dinero de forma inmediata", explica en una entrevista para Computer Hoy Raquel Puebla e Itxaso Reboleiro, analistas de ciberinteligencia de Entelgy Innotec Security.

Clonación de voz con IA: ¿Cómo funciona y de qué forma se aplica a las estafas telefónicas?

La clonación de voces con IA es un proceso que implica la grabación y análisis de la voz de una persona para luego recrearla de manera que no puedas distinguirla. Los delincuentes pueden obtener grabaciones de voz de una variedad de fuentes, desde llamadas telefónicas anteriores hasta vídeos o mensajes de voz.

Luego, utilizan algoritmos de IA para analizar los matices y las peculiaridades de esa voz en particular, como el tono, la velocidad y los patrones de entonación.

Trabajo inteligencia artificial

Una vez que se ha completado esta fase de análisis, la IA puede generar una voz clonada que suena casi idéntica a la de la persona original. Esto permite a los delincuentes hacerse pasar por la víctima y llevar a cabo una serie de estafas telefónicas engañosas.

En estas pueden hacerse pasar por un miembro de la familia, un amigo o incluso una figura de autoridad, como policía o incluso el banco. Estas llamadas además suelen involucrar situaciones de emergencia o urgentes, lo que aumenta la presión sobre la víctima. 

Pueden pedir dinero, información personal o realizar solicitudes que normalmente serían cuestionadas, pero dado el momento de tensión, muchos acaban cayendo.

Contraseñas e inteligencia artificial: un arma de doble cara que pone en peligro tu seguridad

"En el ámbito laboral puede ser una actividad especialmente sensible, pues estas voces clonadas podrían ser utilizadas en el marco de campañas de fraude al CEO altamente creíbles, con pérdidas que podrían ser mayúsculas para la organización afectada por la acción. Además, también pueden ser empleadas para suplantar a personas populares o famosas y conseguir que sus admiradores revelen información de todo tipo, acudan a un determinado lugar o incluso aporten dinero bajo la premisa de obtener un favor por su parte como, por ejemplo, un contacto exclusivo con la persona o un premio", añaden las expertas entrevistadas.

"Se estima que en los próximos años este tipo de delitos vaya en aumento, pudiendo llegar a suponer un gran riesgo para los individuos debido a la complejidad de identificación del fraude, que con el tiempo también resulta probable que experimente múltiples mejoras", continúan.

"Resulta cada vez menos probable ponerle freno a este tipo de incidentes". Sin embargo, todavía puedes evitarlo

Teniendo esto en cuenta, existen algunos puntos a valorar y medidas a tomar para mantenerte a salvo:

"Para lograr identificar una llamada telefónica fraudulenta en la que se utilice una voz clonada a través de IA, los usuarios pueden atender a una serie de indicadores básicos, como pueden ser que la llamada en cuestión se realice desde un número de teléfono desconocido o que el presunto familiar, conocido o agente posea una voz ligeramente robótica, donde de manera habitual no realiza pausas en su discurso, el cual parece aprendido de memoria", explican Raquel Puebla e Itxaso Reboleiro.

"Del mismo modo, resulta común que en este tipo de estafas la máquina realice una ligera pausa tras recibir las respuestas de las víctimas, debido a que necesita un breve lapso de tiempo para poder procesar la información recibida. Además, es probable que el receptor de la llamada perciba un comportamiento inusual en el emisor, dado que los ciberactores habitualmente hacen uso del dramatismo para conseguir que el primero tome una decisión precipitada y de efectos inmediatos", añaden.

Con todo esto, mantén los oídos bien abiertos. El primer paso es conocer que realmente este tipo de ataques que hacen un uso indebido de la inteligencia artificial existen, por lo que ya tienes parte del camino por tu seguridad hecho.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.