Logo Computerhoy.com

Ya está pasando: así es la estafa que usa la inteligencia artificial para clonar la voz de un familiar

Los ciberdelincuentes ya utilizan la inteligencia artificial para clonar voces conocidas y engañar a los ciudadanos. Una estafa que cada vez se volverá más habitual y difícil de identificar. 

Ya está pasando: así es la estafa que usa la inteligencia artificial para clonar la voz de un familiar

Hace no demasiado tiempo, los expertos alertaban: las posibilidades de la inteligencia artificial no tardarían en ser aprovechadas por los cibercriminales para llevar a cabo todo tipo de estafas. Pues bien, esta amenaza ya se ha convertido en una realidad. Algunos delincuentes están clonando la voz de un familiar para engañar a los usuarios

¿En qué consisten exactamente este tipo de estafas llevadas a cabo por inteligencia artificial y qué riesgos pueden suponer? Y lo que es todavía más importante, ¿qué hay que hacer para no caer en sus trampas? En este artículo veremos todo lo que debes tener presente para mantener tu seguridad. 

La estafa que usa la inteligencia artificial para clonar la voz

La realidad es la que es: solo son necesarios unos cuantos segundos de una grabación para que la tecnología actual, inteligencia artificial mediante, sea capaz de clonar la voz de cualquiera. Quizá no con una precisión del cien por cien, pero sí de manera bastante convincente. Es difícil saber qué beneficios puede tener eso, pero lo que está claro es cómo puede emplearse para el mal. 

Es algo que ya está pasando. Lo han alertado desde el INCIBE, el Instituto Nacional de Ciberseguridad. Al parecer, una usuaria denunció una llamada en la que su marido le pedía que le mandara un mensaje a un número de teléfono. Con su voz, claro. Pese a todo, la mujer hizo lo correcto: llamar a su esposo para asegurarse de qué sucedía. Él respondió que no se había puesto en contacto con ella. 

palabra prohibida ocu

Los expertos del INCIBE les preguntaron entonces si el hombre había compartido su voz en Internet. No hace falta ser una celebridad para eso, simplemente compartiendo algún vídeo en redes sociales, subiendo un vídeo a YouTube o cualquier cosa por el estilo es más que suficiente para los ciberdelincuentes. Pero no parecía que este fuera el caso concreto. 

Entonces él recordó que en días anteriores había recibido algunas llamadas “sospechosas. De esas que llaman y cuelgan y cosas por el estilo. Probablemente, los delincuentes consiguieron todo lo que necesitaban entonces. En este caso, el matrimonio tuvo suerte y no tuvo que lamentar ningún tipo de pérdida, pero por desgracia no siempre es así (ni lo será).

Cómo evitar las estafas que clonan la voz de algún conocido

Estafa Bizum

Generado con IA

Todo indica que cada vez va a ser más difícil evitar este tipo de estafas creadas mediante inteligencia artificial. Así que, lo más sencillo para no caer en los engaños de los delincuentes es desconfiar, aunque reconozcas la voz de alguien. Si un familiar, amigo conocido o quien sea te propone algo imprevisto o extraño, no confíes, e intenta tú ponerte en contacto con esa persona.

Más aún, si ese alguien se pone en contacto contigo desde un número de teléfono desconocido. Y recuerda, nunca compartas tus datos bancarios con nadie ni entres en enlaces, a poco sospechoso que te resulte todo. Quizá no sea agradable ser tan desconfiados, pero como suele decirse en estos casos, más vale prevenir que curar. 

Conoce cómo trabajamos en Computerhoy.

Etiquetas: estafa, Ciberseguridad