Logo Computerhoy.com

El lado oscuro de la autenticación por voz: se puede vulnerar en 6 intentos, afirma un estudio

Si tienes una grabación de tu voz en Internet... Bórrala inmediatamente

No estás seguro, la autenticación por voz es fácil de vulnerar por mucho que creaa que tienes una voz única en el mundo y la culpable de esto es la IA.

La autenticación por voz no es segura. Se ha realizado un estudio que muestra que se puede hackear este método biométrico en tan solo seis intentos, teniendo un porcentaje de acierto del 99%. Esta situación supone un gran problema para todas aquellas entidades o empresas que utilizan este sistema de autenticación biométrica.

El equipo de investigación de la Universidad de Waterloo ha sido el encargado del estudio. Durante la investigación se ha estudiado cómo funciona la autenticación por voz de los diferentes sistemas o empresas que lo emplean para la seguridad de los usuarios. Tras comprobar el funcionamiento emplearon IA para conseguir boicotear la seguridad.

La voz como método de seguridad no es infalible. Según la investigación, los bancos o empresas que emplean estos métodos utilizan frases estándar que los usuarios han de repetir cierto número de veces para que así se cree un patrón de la voz de ese usuario en concreto que se almacenará para futuras comprobaciones.

Patrones de voz generados por IA. Los investigadores han empleado la Inteligencia Artificial para conseguir imitar estos patrones de voz. No es nada nuevo como tal y, de hecho, se puede considerar como un ‘deepfake’. Teniendo en cuenta esto lo que han hecho es entrenar a una IA capaz de aprender y, posteriormente, generar voces según patrones.

La autenticación por voz no es segura y la IA tiene la culpa de ello

Clonar una voz gracias a la IA es el presente y el futuro. Lógicamente los sistemas de verificación de voz están al tanto de la situación y cuentan con medidas para detectar cuando una voz es humana y cuando ha sido generada por una IA. Los investigadores han tenido esto en cuenta al desarrollar su modelo, haciendo que sea capaz de evitar estas medidas de seguridad.

Seis intentos y un 99% de acierto. El método desarrollado por los investigadores de la Universidad de Waterloo es capaz de saltar cualquier tipo de verificación. Los datos que han obtenido son alarmantes: el 99% de acierto se aplica a los sistemas menos sofisticados, mientras que en los más sofisticados se consigue un 40% tras 30 segundos de intentos.

La investigación pretende que los sistemas de autenticación de voz sean más seguros. Andre Kassis, director de la investigación, indica que “La única forma de crear un sistema seguro es pensar como un hacker. En caso de no hacerlo lo que ocurrirá es que estarás a la espera de ser atacado”. Habrá que esperar para ver si esto pone una alarma en estos sistemas de autenticación.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.

Etiquetas: seguridad