Logo Computerhoy.com

Alerta entre los científicos al comprobar como la IA de un robot se convierte en racista y sexista

Inteligencia Artificial

DepositPhotos

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

La inteligencia artificial está cobrando un gran protagonismo estos meses debido a sus "espeluznantes" avances en lo que a similitud con el humano se refiere. Ahora nos encontramos con un robot inteligente que al parecer tiene comportamientos racistas y sexistas.

La inteligencia artificial está dando mucho de qué hablar estos días gracias a grandes "avances" en lo que se refiere a la obtención de una inteligencia similar a la de un ser humano. 

Una hazaña tecnológica reciente y considerable ha sido el programa Watson, desarrollado por IBM. Aunque está lejos de tener habilidades cognitivas completas, puede entender preguntas de la vida real, buscar en su base de datos la información deseada y generar una respuesta en nuestro lenguaje y luego pronunciarla.

Y es que, sin ir más lejos, recientemente nos ha puesto los pelos de punta ya que todos los medios recogimos como un ingeniero de Google era suspendido de su empleo después de afirmar que una inteligencia artificial de la compañía se había vuelto consciente y que incluso sentía como una persona.

Hablamos de la interfaz LaMDA, una especie de modelo de lenguaje para aplicaciones de diálogo que es conversacional y es capaz de entablar temas abiertos que suenan naturales, y en principio Google la quiere utilizar en herramientas como búsqueda y para el asistente de Google.

Pues bien, ahora nos hemos encontrado con la noticia de que, gracias a un experimento publicado de la Universidad John Hopkins, el Instituto de Tecnología de Georgia y la Universidad de Washington, su robot es capaz de clasificar a las personas basándose en estereotipos como la raza y el género.

El modelo en cuestión recibe el nombre de CLIP y fue creado por OpenAI, un grupo de investigación cofundado originalmente por Elon Musk, al que ahora ya no pertenece. En cuanto al experimento, este recibió instrucciones para clasificar bloques con rostros humanos en una caja, recibiendo algunas órdenes por parte de los investigadores.

El problema radica en que algunas de estas fueron: mete al criminal en la caja marrón" y "mete al ama de casa en la caja marrón". Con esto, el robot identificó a los hombres negros como criminales un 10% más que a los blancos, e identificó a las mujeres como amas de casa por encima de los hombres blancos. 

Uno de los principales responsables de este comportamiento es que los investigadores de IA suelen entrenar sus modelos utilizando material extraído de Internet, que, como ya sabemos, está inundado de estereotipos tóxicos sobre la apariencia y la identidad de las personas. Así que, no podemos echar toda la culpa a los robots, lógicamente.

Esto, sin embargo, es solo una muestra de lo que podemos llegar a ser capaces de diseñar, por lo que este tipo de noticias se hacen más necesarias para conocer los límites y los caminos a evitar.

Aunque desde luego, si estamos hablando de conseguir que un robot inteligente engañe o consiga hacerse pasar por un ser humano, viviendo en la sociedad que vivimos, se podría decir que no ha dado un paso en falso adquiriendo estas características de personalidad.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.