Logo Computerhoy.com

Microsoft da marcha atrás con algunas funciones basadas en IA, incluido el reconocimiento facial por falta de precisión

Inteligencia Artificial

DepositPhotos

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Microsoft ha echado un paso hacia atrás en sus avances en el análisis del reconocimiento facial y algunas otras funciones basadas en la inteligencia artificial, debido a problemas de discriminación y precisión.

El problema que puede llegar a presentar la inteligencia artificial en cuanto al reconocimiento facial es bastante sensible. Y es que ya no solo hablamos de actor discriminatorios, por ejemplo, con las personas de piel negra, sino también con la vejez.

Ya hemos hablado de este tema, ya que uno de los grandes retos a los que se expone la IA en el reconocimiento facial es identificar rostros a medida que envejecen.

En algunas tiendas de Estados Unidos ya fían su sistema de seguridad a las IA que abren o no las puertas a los clientes. Para hacerlo utilizan técnicas de reconocimiento facial y, cuando se acercan los clientes, realizan un escaneo de ellos y cruzan la información con bases de datos propias que son inaccesibles a los ciudadanos. Esto podría dar problemas si algo falla.

Por este motivo y por la falta de precisión, Microsoft está retirando su apoyo público a algunas funciones basadas en la IA. Sin embargo, las acusaciones se centran en no comprender por qué la compañía, en lugar de salir del camino, no ha tratado de solucionar estos problemas de base y escudarse en fallos discriminatorios.

Los cambios forman parte de un intento de Microsoft para controlar más sus productos de inteligencia artificial. Tras una revisión de dos años, un equipo ha desarrollado un "Estándar de Inteligencia Artificial Responsable", un documento de 27 páginas que establece los requisitos de los sistemas de Inteligencia Artificial para garantizar que no van a tener un impacto perjudicial en la sociedad.

Los requisitos incluyen garantizar que los sistemas proporcionen "soluciones válidas para los problemas que están diseñados para resolver" y "una calidad de servicio similar para los grupos demográficos identificados, incluidos los grupos marginados".

inteligencia artificial

Microsoft, como otras empresas tecnológicas, ha tenido tropiezos con sus productos de inteligencia artificial. Tan solo recordemos como, en 2020, los investigadores descubrieron que las herramientas de voz a texto desarrolladas por Microsoft, Apple, Google, IBM y Amazon funcionaban peor con las personas negras.

La empresa había recogido datos de habla diversa para entrenar su sistema de IA, pero no había entendido lo diverso que podía ser el lenguaje. "Esperamos poder utilizar nuestra norma para intentar contribuir al brillante y necesario debate que hay que mantener sobre las normas que deben cumplir las empresas tecnológicas", explica Natasha Crampton, jefa responsable de IA de Microsoft.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.