Logo Computerhoy.com

Guerra al “deepfake”: Estados Unidos prohíbe las llamadas que usan clonación de voz mediante IA

Enrique Luque de Gregorio

Guerra al “deepfake”: Estados Unidos prohíbe las llamadas que usan clonación de voz mediante IA
  • Las estafas mediante clonación de voz son cada vez más frecuentes en todo el mundo.
  • La inteligencia artificial solo necesita unos segundos de grabación para imitar cualquier voz.

Las estafas que utilizan las nuevas tecnologías, desde WhatsApp hasta TikTok, para sus prácticas criminales, están a la orden del día. Y todo parece indicar que muchos ciberdelincuentes también están aprovechándose de la inteligencia artificial para realizar todo tipo de engaños. Tanto, que algunos países ya han dado un primer paso para intentar luchas contra estas prácticas.

En concreto, ha sido Estados Unidos, quien ha declarado la guerra el llamado “deepfake”, y ha prohibido las llamadas que usan clonación de voz mediante IA. 

Guerra al deepfake

En alguna ocasión ya hemos alertado al respecto: la clonación por voz puede tener muchos usos, pero algunos de ellos ser terriblemente malintencionados. Por ejemplo, esta tecnología que permite reproducir o imitar la voz de cualquiera, solo escuchando una grabación de unos pocos segundos, se usa hasta a nivel comercial. Seguro que lo has visto en varios anuncios. 

¿Qué quiere decir esto exactamente? Pues que a partir de ahora todo el mundo debe ser más escéptico a la hora de creer aquello que escucha. Sobre todo si no quiere caer en estafas que, desgraciadamente, ya están a la orden del día, y tiene a la inteligencia artificial como principal protagonista. 

Esto no lo decimos nosotros, sino la propia Comisión Federal de Comunicaciones de Estados Unidos (FCC), que ha mostrado profundamente preocupada por la proliferación de este tipo de delitos en muchos estados. Según las autoridades de New Hampshire, habrían sido en torno a 20.000 vecinos quienes ya han sufrido este timo. 

Su reacción ante este fenómeno, eso sí, no se ha hecho esperar. O al menos, no demasiado. La FCC estadounidense han declarado ilegales todas aquellas llamadas automáticas que utilizan la clonación por voz generada por la inteligencia artificial. O lo que es lo mismo, las que más se llevan a cabo con el fin de engañar a la gente y sacarla el dinero. 

El riesgo de la clonación por voz mediante IA

Probablemente, hayas visto anuncios pasados por televisión en los que se utiliza las voces (y la apariencia, en muchos casos) de famosos hace tiempo fallecidos como reclamo de marketing. Pues bien, lo que hacen los ciberdelincuentes es algo parecido, solo que haciéndose pasar en muchos casos por la voz de un ser querido. 

Ten en cuenta que, debido a la inteligencia artificial, casi cualquiera puede imitar una voz, sin necesidad de ser un genio informático ni nada por el estilo. En muchos casos, los estafadores hablan simulando ser un hijo o un familiar en apuros, casi siempre con la intención de pedir una suma de dinero ante una urgencia inventada. Una práctica que ya se ha vuelto bastante habitual.

¿Seguirán otros países esta medida y llevarán a cabo acciones similares? Lo que está claro es que la inteligencia artificial genera nuevas posibilidades, en lo laboral y en lo personal, pero también amenazas a las que la ley debe enfrentarse. Las autoridades lo advierten con frecuencia y la propia UE ya ha tomado medidas al respecto. Seguro que no son las únicas, visto lo visto. 

Conoce cómo trabajamos en Computerhoy.