Logo Computerhoy.com

Google pide a sus investigadores que muestren su IA con un "tono positivo" y oculten sus peligros

busquedas google
Depositphotos

Un nuevo informe revela las políticas que el gigante de internet está imponiendo a sus trabajadores para dar una buena imagen sobre sus sistemas de inteligencia artificial. 

Google está pasando un último fin de año complicado, la empresa recibió a principios de mes una carta con la firma de más de 1.500 empleados y unos 2.000 académicos en protesta por el despido de Timnit Gebru, una especialista en la ética de la inteligencia artificial afroamericana. El despido se produjo después de que Gebru expresara su preocupación por los protocolos de diversidad de la empresa.

En la carta los firmantes denunciaban la censura ejercida por Google. Hoy los problemas crecen para la compañía, un informe publicado por Reuters revela parte de esa censura. Google habría revisado y evitado temas sensibles sobre su tecnología en varios artículos científicos.

Según la información conseguida por Reuters, Google habría solicitado hasta en tres ocasiones a sus investigadores que se abstuvieran de dar una imagen negativa sobre la tecnología de Google. En esos artículos científicos se hablaba, por ejemplo, de la preocupación por desinformar a los usuarios a través de los feeds de YouTube.

El día en que la inteligencia artificial me prohibió entrar en una tienda

El día en que la inteligencia artificial me prohibió entrar en una tienda

La tecnología ha llegado a un punto en el que algunas tiendas de Estados Unidos tienen inteligencias artificiales que deciden quién puede entrar. Estas situaciones serán cada vez más comunes en nuestro día a día. ¿Cómo pueden influir en nuestras vidas? ¿Son justas las IA al valorar a las personas?

Lee el reportaje

Para evitar esa mala publicidad, Google ha establecido una nuevo procedimiento a seguir en el que los investigadores deben reunirse con equipos especiales de relaciones públicas, políticas y legales antes de realizar investigaciones sobre su inteligencia artificial en los que se traten temas controvertidos como el análisis facial y categorizaciones de raza, género o afiliación política.

Reuters pone como ejemplo un caso en el que los investigadores querían plasmar su preocupación por los muros de YouTube donde se recomiendan contenidos a los usuarios. Indicaban que la tecnología en esta plataforma se podía usar para promover "desinformación, discriminación o de otra manera".  La falta de diversidad podía conducir a una polarización política. Este tipo de injusticias acentuadas por el mal uso de la tecnología se ha denunciado en otros ámbitos de la industria incluyendo como ejemplo grandes sistemas de inteligencia artificial como los de Google. 

Margaret Mitchell, un científico senior de la empresa,  explica: "Si estamos investigando lo apropiado dada nuestra experiencia, y no se nos permite publicarlo por motivos que no están en línea con la revisión de alta calidad, entonces ante un serio problema de censura". La propia Timnit Gebru afirma que fue despedida tras negarse a no publicar una investigación en la que afirmaba que la inteligencia artificial capaz de imitar el habla podría poner a las poblaciones marginales en desventaja.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.