Microsoft se une a Amazon e IBM, y también deja de vender su software de reconocimiento facial a la policía

Estados Unidos vive tiempos convulsos por un problema latente que no han sabido (o no han querido) solucionar, desde que el país declaró la independencia del Reino Unido, hace casi 250 años. El conflicto racial ha vuelto al primer plano estos días con la muerte de George Floyd, y a las compañías tecnológicas les ha estallado en las manos.
Primero fue IBM, luego Amazon, y ahora Microsoft: los tres gigantes tecnológicos han dejado de vender su software de reconocimiento facial a la policía y otras agencias de seguridad de Estados Unidos.
IBM ha sido la más rotunda, anunciando que deja de desarrollar software de reconocimiento facial, porque no lo ve ético. Amazon anunció que prohibe su uso a la policía durante un año, y hoy ha sido Microsoft la que también deja de venderlo a las autoridades, hasta que exista una ley "que se ajuste a los derechos humanos", y regule el tema.
Nos vendieron el reconocimiento facial como algo práctico y maravilloso pero, mira por donde, cuando Estados Unidos clama por la justicia racial, ahora resulta que no es perfecto.
Sí, es muy práctico para desbloquear nuestro móvil o para identificar a familiares y amigos en nuestras fotos, pero en ciertas manos puede convertirse en una arma de poder y opresión. Porque el reconocimiento facial tiene dos problemas gravísimos, que nadie se había tomado en serio... hasta ahora. El negocio, por el lado de las tecnológicas, y la comodidad, por el de los usuarios, parecía más importante...
El primer problema es que un software de este tipo en manos de la policía y los gobiernos, pone en peligro la privacidad de los ciudadanos. La policía estadounidense está usando el reconocimiento facial para identificar a las personas que participan en las manifestaciones por la igualdad racial, y esta información puede ser utilizada con fines políticos.
Por otro lado, varios estudios han demostrado que el software de reconocimiento facial tiene sesgos raciales: falla más cuando trata de identificar a personas de raza negra, produciendo muchos más falsos positivos. En el ambiente tenso actual, las compañías tienen miedo de que alguna falsa identificación se vuelva contra ellas.
Hay que alabar que gigantes como Microsoft, IBM o Amazon hayan decidido prohibir su software de reconocimiento facial en casos en donde la privacidad de los ciudadanos no está garantizada. Pero también deberían explicar por qué, si su software es poco ético o imperfecto, lo han estado vendiendo sin problemas y sin remordimientos de conciencia hasta ahora...
Descubre más sobre Juan Antonio Pascual Estapé, autor/a de este artículo.
Conoce cómo trabajamos en Computerhoy.