Las caras falsas creadas por IA ya son indistinguibles incluso para los expertos
Según investigadores, los humanos ya no pueden distinguir de forma fiable entre un rostro humano real y una imagen de una cara generada por la inteligencia artificial.
Dos expertos de los departamentos de psicología e ingeniería eléctrica de Reino Unido y California estudiaron las evoluciones humanas de fotografías reales y de imágenes sintetizadas por la IA, y llegaron a la conclusión de que ya nadie puede distinguirlas con fiabilidad.
Las imágenes falsas se formaron utilizando redes generativas adversariales (GAN), una clase de marcos de aprendizaje automático en los que dos redes neuronales juegan una especie de concurso entre sí hasta que la red se entrena para crear un mejor contenido.
En una parte del estudio (219 participantes), publicado en la revista Proceedings of the National Academy of Sciences USA, los humanos identificaron las imágenes falsas sólo en el 48,2% de las ocasiones.
“Deberíamos estar preocupados porque estos rostros sintéticos son increíblemente efectivos para propósitos nefastos como por ejemplo, pornografía de venganza o fraude”, afirma uno de los investigadores.
Y no sólo eso, sino que las caras ficticias inspiran más confianza que muchas de las fotos de personas reales (los participantes calificaron las caras como fiables en una escala de uno a siete).
Las cuatro caras calificadas como menos confiables eran rostros reales, mientras que las cuatro caras más confiables eran las cuatro falsas. A continuación te dejamos con la imagen en la que aparecen las caras más confiables (arriba) y las que menos (abajo).
"Un rostro sonriente tiene más probabilidades de ser calificado como digno de confianza, pero el 65,5% de nuestros rostros reales y el 58,8% de los rostros sintéticos son sonrientes, por lo que la expresión facial por sí sola no puede explicar por qué los rostros sintéticos son calificados como más dignos de confianza", escribieron los investigadores.
En otra parte del estudio, los participantes recibieron formación y comentarios para ayudarles a detectar las falsificaciones. Aunque ese grupo detectó a los humanos reales el 59% de las veces, sus resultados, en las diferentes repeticiones, no lo superaron.
"Alentamos a quienes desarrollan estas tecnologías a considerar si los riesgos asociados son mayores que sus beneficios", enfatizan ambos investigadores.
Otros artículos interesantes:
- La Inteligencia Artificial será la protagonista. El papel que tendrá en este 2022
- La nueva inteligencia artificial de Nvidia que podría ayudarte a encontrar una PS5 en stock
- Una cámara que te entrena en casa gracias a la inteligencia artificial y evita que te hagas daño
- Realme 12 Pro: el futuro de los móviles llega a España con la mejor cámara telescópica y un diseño de lujo
Descubre más sobre Carolina González Valenzuela, autor/a de este artículo.
Conoce cómo trabajamos en Computerhoy.