Logo Computerhoy.com

Las voces de famosos inundan Facebook e Instagram: así puedes detectarlas para evitar las estafas por deepfakes

Enrique Luque de Gregorio

¿Notifica Instagram a otro usuario si haces capturas de pantalla?
  • La inteligencia artificial solo necesita unos segundos de grabación para recrear una voz.
  • Los famosos son usados de reclamos para promocionar ofertas que no existen, puros timos. 

¿Hasta qué punto puedes creer todo lo que ves y escuchas? Está claro que la respuesta a esta pregunta ha cambiado, de un tiempo a esta parte. En concreto, desde que la inteligencia artificial ha llegado para, según parece, cambiar el mundo tal y como lo conocemos. Desde luego, la suplantación por voz es relativamente sencillo de hacerse, y los criminales lo saben. 

Algo que no ha tardado en dejarse notar en algunas redes sociales. Especialmente en aquellas que parecen tener un perfil más suculento para los ciberdelincuentes: Facebook e Instagram. 

Las estafas por deepfakes que utilizan voces de famosos son cada día más frecuentes y creíbles pero, ¿es posible detectarlas? ¿Qué hay que hacer para no caer en estas trampas? 

El peligro de los deepfakes en Facebook e Instagram

Deepfakes inteligencia artificial

TikTok

Tres segundos de grabación. Ese es el tiempo que necesita en muchos casos una red social para recrear una voz, la que sea. Y claro, en el caso de gente famosa no es nada difícil no solo encontrar tres segundos de ellos hablando, sino el tiempo que haga falta. Incluso escritores o cantantes, no hablemos ya de actores, conceden entrevistas audiovisuales.  

Con la tecnología logrando emulaciones muy trabajadas, era evidente que las suplantaciones de identidad iban a estar a la orden del día, en todos los sentidos. Quizá lo más peligroso sean aquellos engaños en los que los malos llaman haciéndose pasar por un familiar o un amigo en peligro, imitando su voz mediante la IA. Pero los famosos también tienen su aquel. 

Solo hace falta ver la publicidad que se emite a diario por todas partes para darse cuenta del reclamo que los famosos tienen, ya sea para anunciar un coche, un videojuego o un postre industrial, el producto da lo mismo. ¿Pero qué sucedería si esa poderosa imagen cayese en malas manos? Eso es lo que ahora se está descubriendo, sobre todo en lo concerniente a su voz.

La técnica llamada deepfake no es otra cosa que eso: copiar la voz de alguien. En este caso, de estrellas como Elon Musk, Mr. Beast, Kylie Jenner, Vin Diesel, Jennifer Aniston o Tiger Woods. ¿Y para qué se usa? Para estafar, claro, prometiendo beneficios enormes invirtiendo poco dinero, o hacerse con artículos de lujo a costes ridículos. Todo era mentira, cómo no.  

Cómo detectar las estafas por deepfake

Está claro que en España las voces de Tiger Woords o Jennifer Aniston no van a ayudar especialmente a convencer a nadie de caer en una trampa. Pero, ¿qué sucedería si reconocieses a un futbolista famoso o un actor nacional? La amenaza no conoce de fronteras. Por suerte existen algunas maneras de detectar estos fraudes, que conviene saber. 

Al menos a día de hoy (todo parece indicar que en el futuro esta técnica se pulirá), las voces clonadas por IA acostumbran a sonar “frías”, faltas de vida o de una entonación del todo convincente. Y cuando estas van acompañadas de una imagen, es frecuente que no esté del todo bien acompasada con el movimiento de los labios. 

Prestar atención a los detalles es, por lo tanto, importante para no caer en estafas. Para bien o para mal, la tecnología debe volverte más escéptico. Ya no es posible creer todo lo que ves o escuchas… al menos en Internet. 

Conoce cómo trabajamos en Computerhoy.