Logo Computerhoy.com

El día en que la inteligencia artificial me prohibió entrar en una tienda

Reconocimiento facial
La tecnología ha llegado a un punto en el que algunas tiendas de Estados Unidos tienen inteligencias artificiales que deciden quién puede entrar o no. Esta clase de situaciones serán cada vez más comunes en nuestro día a día, pero ¿cómo pueden influir en nuestras vidas? ¿Son justas las IA al valorar a las personas?

El big data ya marca las vidas de millones de ciudadanos en todo el planeta. Los ingresos que se tienen, el historial médico, las amistades en redes sociales, lugares dónde se ha viajado y otros tantos factores son analizados por parte de grandes empresas y gobiernos sin el consentimiento explícito de los individuos.

En Estados Unidos llevan tiempo debatiendo sobre la constitucionalidad de la recopilación de datos que realizan algunas aseguradoras médicas. Pero ahora empieza a sumarse a esta polémica el auge que está teniendo el sector del reconocimiento facial y los usos que se manejan a la hora de combinar ambas tecnologías mediante IA.

¿Imaginas no poder entrar en un local o tienda porque una IA no te lo permite? Esto no es ciencia ficción, ya ocurre en Estados Unidos y está levantando una gran polémica. Son muchas las preguntas que surgen en estos casos, tanto desde el punto de vista tecnológico como ético, del empresarial al legal. Vamos a intentar aclarar distintos aspectos.

Crean un lenguaje de programación para que la inteligencia artificial sea más accesible

¿Se puede predecir el comportamiento?

En algunas tiendas de Estados Unidos ya fían su sistema de seguridad a las IA que abren o no las puertas a los clientes. Para hacerlo utilizan técnicas de reconocimiento facial y, cuando se acercan los clientes, realizan un escaneo de ellos y cruzan la información con bases de datos propias que son inaccesibles a los ciudadanos.

Según algunas de las empresas instaladoras de estos equipos, el software nunca identifica erróneamente a nadie. Pero más allá de los mensajes comerciales que se puedan enviar, no son fiables en una realidad donde hasta los gigantes como Google o Amazon reconocen que están a distancia de lograr un acierto del 100%.

Ante los márgenes de error que deja entrever la tecnología, numerosos abogados piensan que los vacíos de información se rellenan en base a tópicos y prejuicios; en resumen, creando perfiles más generales que no toman en cuenta lo individual.

Un detalle a valorar en el reconocimiento facial es que suele desarrollarse para la identificación de caras de ciudadanos blancos, con las personas negras suelen mostrar un mayor porcentaje de error. Al utilizar una tecnología que no es fiable, la desconfianza es la norma general.

Sesgos en la programación

La investigadora Cathy O´Neil, en su ensayo Armas de destrucción matemática, llegaba a la conclusión de que los mismos sesgos que tienen los programadores se trasladan al big data. Si la matemática puede ser objetiva, estos sistemas nunca lo son porque es inasumible llegar a cada aspecto de la tarea para la que son programadas. 

Facebook empieza a pagar a los usuarios por acceder a todos sus datos

Otro de los aspectos en los que muestra mayor desconfianza es en la opacidad de los sistemas que valoran a los ciudadanos en base a una información que ellos desconocen. Ser vecino de un barrio conflictivo puede jugar en contra de alguien a pesar de no haber cometido nunca una infracción, o tener de contacto en Facebook a una persona que ha estado en la cárcel, así como otros detalles más que discutibles que no definen ni la personalidad ni el historial del afectado. 

Estas bases de datos son las que posteriormente se cruzan con el reconocimiento facial, ya que recordemos que el reconocimiento facial solo hace eso, una vez identificada a la persona se pasa a buscar información sobre ella. La IA trabaja sobre estas bases para valorar a la persona: reconocimiento facial y big data.

Estrategias de desorientación

Como hemos dicho anteriormente, no existe un sistema totalmente fiable a día de hoy para identificar a una persona por su aspecto. Además, hay estrategias para tratar de combatir estas tecnologías mediante ocultación de aspectos identificativos e intentos de hackear el sistema, pero los resultados con estas técnicas son ineficientes porque, ante la duda, la IA no deja pasar.

Si el personaje ideado por Kafka en El Castillo no podía acceder al castillo y desconocía el motivo, con estas IA ocurre lo mismo. ¿Cómo es posible acceder a un sitio en el que el software te veta? Y una pregunta aún más problemática: ¿es posible revertir esta situación? Desgraciadamente, parece que la respuesta a esta pregunta es negativa mientras no haya una participación legislativa.

Protestar sí, pero sin dejar rastro de mi identidad: las manifestaciones en el siglo XXI

Los locales con estos sistemas hacen uso del derecho de admisión y no informan de las vías por las que se toman las decisiones ni sobre ningún otro dato. Delegan la responsabilidad a las empresas que controlan las IA.

Debate legislativo

En Estados unidos se enfrentan a continuos debates sobre el uso de las nuevas tecnologías en entornos públicos y privados. La principal polémica viene en casos de reconocimiento facial y la posibilidad de que causen un problema de discriminación si se usa en comercios. Las preguntas que surgen son de tono más práctico que ético.

La discriminación ya existe en cada uno y todos tratan de un modo distinto a cada persona según la sensación que les transmita. Pero al impersonalizar este proceso y conocer tanta información como para predecir si comprará, ingresos o procedencia, puede coartarse la libertad de acceso y movimiento de los ciudadanos.

La polémica serie de HBO de la que todo el mundo hablará el próximo lunes

Las libertades civiles son muy importantes en el país y desde los atentados del 11S existe un debate sobre la seguridad y la privacidad, pero lo que en algunos puntos suele quedar justificado, no gusta tanto cuando se refiere a negocios privados

En San Francisco se prohibió hace unos meses el uso de reconocimiento facial por parte de la misma policía y otros cuerpos de seguridad. Según miembros de American Civil Liberties, esta prohibición es un “recordatorio de que no estamos a merced de las novedades relacionadas con la tecnología”. Pero sabemos que esto no suele ser así y muchos políticos son ejemplo del deseo de implementación de cualquier novedad tecnológica que aparezca. Y tampoco se puede detener el avance tecnológico a pesar de que su uso sea discutible.

Precedentes cinematográficos

Todos conocemos películas en las que la tecnología sirve para discriminar o trae consecuencias negativas. El caso de Minority Report puede ser un buen ejemplo para entender la dicotomía en la que se encuentran estos casos. 

5 (+1) películas protagonizadas por hackers

En esta película se puede observar cómo la tecnología predice quién va a cometer un crimen para detenerlo con antelación, del mismo modo que una IA puede anticipar en teoría quién será beneficioso que entre a un comercio. La historia muestra algunos de los problemas que surgen al fiar el sistema legal a la tecnología y la imposibilidad de tomar en cuenta todos los factores.

Los problemas que pueden causar estos sistemas son éticos y legales. La estadística es tan cruel como impersonal, y el individuo no suele ser víctima del determinismo. Queda mucho por preguntarse respecto a estos temas. Desgraciadamente, es probable que para cuando se tomen medidas ya se hayan sufrido cientos o miles de injusticias. Y nadie puede augurar si con el tiempo se dará vía libre a los negocios para usar esta tecnología de forma indiscriminada. 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.