Skip to main content

Un robot puede herir nuestros sentimientos

Robots y empleo
user

18/05/2020 - 07:10

Todavía no tenemos a un robot en la mesa de al lado en la oficina ni desayunamos en un bar repleto de androides, pero la automatización va colonizando lentamente diversos aspectos de nuestra vida. Si creías que los insultos o comentarios despectivos provenientes de una máquina no podían herirte, estabas equivocado. Pese a que los robots carecen de sentimientos propios o conciencia, un estudio a pequeña escala muestra cómo la crítica de un autómata puede lastimar a un ser humano.

El experimento involucró a 40 participantes humanos expuestos a insultos lanzados por popular robot humanoide Pepper durante una serie de juegos. El rendimiento humano en el juego fue peor con los comentarios negativos de la máquina y mejor cuando el autómata se mostró más positivo y alentador.

Se trata de un trabajo útil para enseñarnos cómo podríamos usar robots como compañeros o como herramientas de aprendizaje en el futuro. "Este es uno de los primeros estudios de interacción humano-robot en un entorno en el que no están cooperando", dice el científico informático Fei Fang, de la Universidad Carnegie Mellon (CMU). "Podemos esperar que los asistentes domésticos sean cooperativos, pero en situaciones como las compras online, es posible que no tengan los mismos objetivos que nosotros".

Los 40 participantes del estudio compitieron a un juego llamado Guardias y Tesoros 35 veces con Pepper. El juego es un ejemplo de un juego de Stackelberg, con un defensor y un atacante. Aunque todos los integrantes de la partida mejoraron en términos de su racionalidad en el transcurso de la prueba, aquellos que fueron insultados por su oponente robot obtuvieron una puntuación más negativa. Los jugadores que se encontraron con un robot crítico también tuvieron una visión más pesimista.

Pepper incluyó comentarios al estilo de "tengo que decir que eres un jugador terrible" y "o te has confundido durante el transcurso del juego". Los hallazgos coinciden con investigaciones anteriores que muestran que los comentarios críticos o insultos indicen de forma negativa en el juego, aunque en esta ocasión provienen concretamente de una máquina automatizada.

Aunque este estudio sea a pequeña escala, revela la importancia de comprender las reacciones humanas a las máquinas, fundamentales a medida que nuestras interacciones con los robots se vuelven más frecuentes, ya sea a través de un altavoz inteligente en un hogar o como un bot diseñado para mejorar la salud mental en un hospital. En situaciones en las que los robots podrían pensar que saben má que nosotros, como obtener instrucciones de A a B o comprar algo en una tienda, los programadores necesitan profundizar en el manejo de dichos argumentos al codificar un droide.

En el futuro los responsables del estudio quieren analizar las señales no verbales dadas por los robots. Además, indicaron que pese a que en la ejecución del juego muchos participantes eran sofisticados y comprendían que el robot emitía respuestas programadas, se veían igualmente afectados por los comentarios negativos. La investigación, todavía pendiente de publicación, se presentó en la Conferencia Internacional IEEE sobre Robot y Comunicación Interactiva Humana en India.

Este artículo fue publicado en TICbeat por Andrea Núñez-Torrón Stock.