Utilizan un deepfake telefónico para que un banco autorice una transferencia millonaria ilegal
Depositphotos
La tecnología sigue avanzando y hay quien está clonando voces para utilizarlas en estafas y otros actos delictivos.
Aunque ahora se hable menos de los deepfakes, hace unos meses se descubrió cómo funcionaba esta tecnología y surgieron muchos debates y polémicas al respecto. Los deepfakes usan la inteligencia artificial que consigue superponer el rostro de una persona en el de otra y falsificar sus gestos, pero también se llama así a otra cosa similar.
La clonación de la voz mediante tecnología también existe y se utiliza desde hace tiempo en algunas estafas telefónicas. Un ejemplo lo encontramos en el robó de 35 millones de dólares que se ha vivido en Emiratos Árabes Unidos y en el que un deepfake telefónico ha sido clave.
Según informan en Gizmodo, en un robo se clonó la voz de un conocido del gerente de un banco para realizar una transferencia ilegal que superaba los 35 millones. Esto ocurrió en enero, pero se ha sabido ahora.
En la sucursal bancaria de los Emiratos Árabes Unidos recibieron una llamada telefónica de alguien que aseguraba ser el director de una empresa, una persona con quien el gerente del banco ya había hablado en distintas ocasiones.
La llamada telefónica con voz clonada junto a unos correos electrónicos falsos sirvieron para avisar a los trabajadores del banco de que se iba a realizar pronto una gran transferencia, que empezó en cuanto fue aprobada.
Según las investigaciones, los delincuentes "utilizaron la tecnología deepfake para simular la voz del director" y se calcula que hubo al menos 17 personas involucradas en el proceso. Además, después se distribuyó el dinero por cuentas bancarias de distintos países para que fuese complicado de recuperar.
En definitiva, un robo que da mucho qué pensar sobre las medidas de seguridad que deben tomar los bancos y grandes empresas a la hora de combatir una tecnología que aún puede mejorar mucho.
Otros artículos interesantes:
- Reviven con deepfake a su hijo asesinado para alentar al voto
- Snapchat prepara Cameos, unos inofensivos deepfakes en forma de GIF
- Microsoft no quiere que nos la vuelvan a colar con los deepfakes
- Todo lo que trae la Serie MSI: innovación y potencia para cualquier escenario
Descubre más sobre Ekaitz Ortega, autor/a de este artículo.
Conoce cómo trabajamos en Computerhoy.