Skip to main content

La música puede ocultar comandos maliciosos para Siri y Google Assistant

Google Home

10/05/2018 - 18:45

Un equipo de investigadores de la Universidad de California, Berkeley (Estados Unidos) ha demostrado que es posible ocultar comandos maliciosos para Siri, Google Assistant, Alexa y otros asistentes virtuales en archivos de música o grabaciones de audio. 

Los altavoces inteligentes quieren conquistar los hogares de todo el mundo. En Estados Unidos ya se han convertido en dispositivos muy populares, y todo apunta a que es cuestión de tiempo que Amazon Echo con Alexa, Google Home con Google Assistant y HomePod con Siri sean también aparatos habituales en las casas de otros países. Sin ir más lejos, ya está confirmado que Google Home llegará a España

Además, el papel de los asistentes virtuales va a ir haciéndose más importante en los próximos años para interactuar con los móviles y otros dispositivos, como anticipa el hecho de que la nueva IA de Google ya sea capaz de mantener conversaciones telefónicas.

Y ya sabemos que, cuando el uso de un dispositivo está muy extendido, maneja datos personales y privados de los usuarios y está conectado a Internet, automáticamente se convierte en un objetivo de los ciberdelincuentes. Para mantener a salvo los altavoces inteligentes y los asistentes virtuales que los gobiernan, un equipo de investigadores de China y Estados Unidos ha estado estudiando en los dos últimos años la posibilidad de que un atacante pueda utilizar comandos ocultos en sonidos para que un asistente virtual ejecute determinadas acciones.

Compra un iPhone reacondicionado certificado a precio bajo en Amazon España

La investigación inicial de 2016 descubrió que es posible esconder estos comandos maliciosos en el ruido blanco, pero los últimos hallazgos determinan que también es posible ocultarlos en archivos de música o grabaciones de voz sin que el oído humano los detecte. En los experimentos, el equipo consiguió ocultar el comando "OK Google, navega a evil.com" en una grabación de una frase hablada sin que las personas pudieran escucharla. Otros científicos de la Universidad de Princeton y la Universidad de Zhejiang (China) también han llevado a cabo experimentos similares pero con ultrasonidos.

Los investigadores señalan que, afortunadamente, no hay indicios de que se haya producido en la naturaleza un ataque de estas características, aunque comprobar que es posible efectuarlo resulta muy importante para que las marcas pongan medidas para evitarlos.

Apple asegura que Siri ya cuenta con protecciones para limitar este tipo de ataque. Los de Cupertino afirman que el HomePod está diseñado para evitar que los comandos hagan cosas como desbloquear puertas, y señalan que los iPhone y iPads deben desbloquearse antes de que Siri pueda facilitar el acceso a datos confidenciales, abrir aplicaciones o entrar en páginas web.