Este estudio demuestra que muchas personas son incapaces de identificar si están escuchando una voz generada por IA

El estudio, preocupante, afirma que un gran porcentaje de la población es incapaz de diferenciar una voz generada por un ser humano de una voz generada por la inteligencia artificial.
Con los avances en inteligencia artificial, los ciberdelincuentes también se están aprovechando de la situación para renovar muchas de sus estafas, y una de ellas es la que se hace pasar por algunos de nuestros familiares usando sus voces.
Esto lo hacen gracias a las voces generadas por inteligencia artificial, y lo peor de todo, es que hay un gran conjunto de personas que no saben diferenciarlas de una voz real, y eso puede ser un problema.
De hecho para este estudio realizado por Kimberly Mai en el University College London utilizaron un algoritmo de texto de voz entrenado en dos conjuntos de datos, y mostró que los humanos participantes solo fueron capaces de detectar la voz generada por IA al 73 %.
Para llegar a la conclusión, se crearon 50 muestras de voz falsificadas, tanto en inglés como en chino mandarín, para determinar si los humanos podrían identificar las voces falsas.
Participaron 529 personas que escucharon a un hablante real leyendo oraciones genéricas en inglés o en chino mandarín, pero intercaladas con frases generadas por IA.
El primer grupo escuchó 20 muestras de voz en su idioma nativo y tuvieron que decidir si eran reales o falsas, y los participantes eligieron la opción correcta el 73 % de las veces.
Mucho más fácil fue un segundo grupo, que escuchó 20 pares de clips de audio, uno hablado por humano y otro por inteligencia artificial, y tenían que elegir cuál de los dos clips era el de la IA. En este caso pudieron detectar la IA al 85 % de las veces.
El segundo caso fue mucho más fácil, dado que se daba al participante dos opciones que podían comparar, por lo que el resultado de éxito fue mayor.
Pero es preocupante el primer caso, donde solo el 73 % de las veces pudieron detectar la voz generada por inteligencia artificial.
Evidentemente, cuando los participantes recibieron capacitación para reconocer características de las voces generadas por inteligencia artificial, pudieron aumentar su tasa de éxito.
"En nuestro estudio, demostramos que capacitar a las personas para detectar deepfakes no es necesariamente una forma confiable de ayudarlos a mejorar. Desafortunadamente, nuestros experimentos también muestran que, en este momento, los detectores automáticos tampoco son confiables", dijo Mai.
"Son realmente buenos detectando deepfakes si han visto ejemplos similares durante su fase de entrenamiento, si el orador es el mismo o los clips se grabaron en un entorno de audio similar, por ejemplo. Pero no son confiables cuando hay cambios en las condiciones de audio de prueba, como si hubiera un altavoz diferente", añade.
Hay que tener en cuenta que para hacer este estudio se utilizaron algoritmos relativamente antiguos, lejos de los algoritmos actuales, que son mucho más precisos, por lo que los resultados con los algoritmos actuales podrían ser más preocupantes.
Otros artículos interesantes:
- Afrontando el futuro laboral: cómo abrazar la inteligencia artificial y conservar tu empleo
- Contraseñas e inteligencia artificial: un arma de doble cara que pone en peligro tu seguridad
- El futuro ya es una realidad, descubre cómo controlar tu hogar desde tu TV
Descubre más sobre David Hernández, autor/a de este artículo.
Conoce cómo trabajamos en Computerhoy.