Google DeepMind analiza qué sucede cuando dos IA entran en conflicto

¿Qué es LIFE?
¿Qué es LIFE?
inteligencia artificial

Google DeepMind, la división de inteligencia artificial de la compañía de Mountain View, ha querido investigar qué es lo que sucede cuando dos IA entran en conflicto.

Las personas, aunque tenemos intereses individuales, en muchas ocasiones trabajamos juntas para conseguir logros mayores que sería difícil alcanzar sin la ayuda de otros individuos. Pero, ¿cuáles son las circunstancias que favorecen la cooperación y cuáles propician el enfrentamiento?

DeepMind ha querido dar respuesta a esta pregunta y revelar cuáles son las causas de que los agentes racionales tengan comportamientos más o menos cooperativos cuando se enfrentan ante dilemas sociales. Para entender esto, antes que nada explicaremos en qué consiste este tipo de conflictos a través del dilema del prisionero.

El dilema del prisionero es un problema fundamental de la teoría de juegos que demuestra que es posible que dos personas no cooperen incluso cuando esta acción va en contra de sus intereses. El planteamiento es el siguiente: la policía detiene a dos individuos, y les comunican pueden suceder tres cosas: que ambos guarden silencio, lo que supondrá un año de cárcel para cada uno; que se delaten el uno al otro, lo que supondrá dos años de prisión para cada uno; o que uno guarde silencio y el otro le delate, en cuyo caso sería el que habla quedaría liberado y el otro tendría tres años de cárcel.

En un caso como este, lo más lógico es que los dos agentes racionales cooperen para conseguir una pena leve para cada uno, pero si ambos piensan de manera egoísta y acusan al otro para liberarse, su castigo será mayor.

La IA de Google se entrena secretamente en juegos online

Para llevar a cabo la investigación, los científicos de Google DeepMind plantearon un dilema según el cual dos agentes, uno rojo y otro azul, comparten un mismo entorno y reciben recompensas por recoger manzanas. Además, también tienen la posibilidad de atacar al otro individuo para impedirle jugar temporalmente, una acción que no desencadena ninguna recompensa.

Lo que pudieron observar es que, cuando hay manzanas suficientes, los agentes son capaces de coexistiir de manera racional, pero cuando no hay manzanas suficientes para los dos prefieren atacar al otro individuo para intentar recoger más recompensas. En el siguiente vídeo puedes verlo de manera gráfica.

¿Será la Inteligencia Artificial un peligro en el futuro?

En otro experimento, el planteamiento del juego era de tres IA enfrentadas y el objetivo era que dos de ellas atraparan a la tercera en un espacio cerrado. Al poner en práctica el problema, pudieron observar que cuanto más avanzada era la inteligencia artificial más interés mostraba en cooperar con las demás para encerrar a la tercera. 

En resumen, esta investigación demuestra que dependiendo de las circunstancias propias de cada caso, las IA van a demostrar un comportamiento cooperativo o agresivo. Entendiendo las diferentes causalidades, los científicos podrán controlar sistemas complejos multi-agente que requieren de cooperación como la economía, los sistemas de tráfico o el cuidado del medio ambiente.