En China quieren que los sistemas de reconocimiento facial también detecten las emociones de los ciudadanos

Aunque el reconocimiento facial todavía no funcione todo lo bien que se está vendiendo por parte de empresas y algunos gobiernos, esto no quiere decir que las ambiciones de muchos se detengan en la posible identificación de personas. En China, a que el sistema sepa quién es el individuo captado por las cámaras quieren que se sume el que detecte cuál es su estado anímico, qué emociones siente y transmite.
Si hace tiempo se supo que Facebook desarrolla herramientas para saber qué están pensando los usuarios, en China trabajan en sistemas que detecten emociones. Ambos proyectos se basan en los pequeños matices y gestos de nuestros rostros que pueden ser imperceptibles para nosotros, pero no para las máquinas.
Según aclara Financial Times, en la última exposición tecnológica que se celebró en Shenzhen hubo compañías que mostraron sistemas capaces de identificar qué sentían algunos individuos y, siguiendo la misma lógica, a posibles delincuentes.
Pero esta tecnología no está solamente en las salas de eventos tecnológicos, ya han llegado a las calles y funcionan en una versión supuestamente de prueba en regiones como Xinjiang. Allí sirven para identificar a posibles sospechosos que estén cerca de cometer un acto terrorista o delinquir.
Sin embargo, al igual que el conocido anuncio sobre el 5G que emitió la televisión china, esta clase de predicción de delitos no se sustenta en base alguna ante la imposibilidad de conocer el contexto de cada individuo.
Por poner un ejemplo en el que podría fallar, si alguien discute en su casa y sale a la calle, es probable que los indicadores de su cara muestren ira. Pero esa ira que pueden detectar los sistemas de reconocimiento facial no tienen nada que ver con una agresividad hacia posibles víctimas en la calle o ser la antesala de un acto delictivo.
Son muchas las dudas existentes sobre esta clase de sistemas. Sin embargo, más importante que los resultados en sí mismos, es saber que se trabaja en ello y que, a pesar de su más que dudosa fiabilidad, pueden servir para detener a ciudadanos.
Descubre más sobre Ekaitz Ortega, autor/a de este artículo.
Conoce cómo trabajamos en Computerhoy.