Logo Computerhoy.com

La inteligencia artificial de Google se vuelve muy agresiva al imitar a los humanos

María Lázaro

La inteligencia artificial de Google imita comportamientos agresivos de las personas

Un reciente informe ha revelado que la inteligencia artificial de Google se vuelve "altamente agresiva" al imitar la peor parte de los comportamientos de los humanos. El proyecto DeepMind para la ejecución de redes neuronales ha revelado una conclusión muy interesante sobre el comportamiento de la inteligencia artificial en situaciones de estrés.

Parte de su potencial lo conocimos cuando supimos que había logrado aprender a jugar a videojuegos de manera similar a un humano, llegando a vencer al campeón del mundo de Go. La compañía con sede en Mountain View (California) cuenta con varios proyectos en marcha para desarrollar la inteligencia artificial, el aprendizaje automático y el desarrollo de redes neuronales. Ahora un nuevo estudio revela que la inteligencia artificial de Google se vuelve agresiva y competitiva bajo situaciones de estrés.

Entre los más destacados se encuentran AlphaGo Zero, la inteligencia artificial que aprendió tácticas de hace 3.000 años en cuestión de días y AutoML, un sistema que se autocorrige automáticamente. A medida que han ido desarrollando un sistema similar al de la mente humana también se han ido dando cuenta de los riesgos que implica llevarlo a cabo.

Volviendo al proyecto DeepMind, uno de los equipos que trabaja en ello publicó en el pasado año un artículo y un post donde daban cuenta de los avances logrados. Explican que una de las pruebas consistía en poner a prueba dos versiones de una misma inteligencia artificial, Rojo y Azul, en un entorno virtual con el objetivo de conseguir el mayor número de manzanas verdes. Se trata de una versión del famoso juego de estrategia Prisioner´s Dilemma.

Aprende más sobre inteligencia artificial con estos libros

En esta prueba descubrieron que cuando había suficientes manzanas verdes, tanto el Rojo (Red) como el Azul (Blue) recopilaban más o menos el mismo número y se comportaban de manera pacífica. Pero cuando los recursos escaseaban, la inteligencia artificial de Google se volvía muy agresiva

"En este juego, los agentes aprenden políticas agresivas en entornos que combinan escasez de recursos con tener que desarrollar una estrategia ante situaciones límite" señalan los investigadores. Una situación que no se producía cuando una cantidad notable de manzanas verdes estaban aseguradas.

En función del tipo de IA que sea, se comporta de una manera u otra. Otra de las conclusiones a las que llegan es que las IA más grandes y complejas (y supuestamente más inteligentes) tienen más probabilidades de atacar a sus competidores que aquellas más pequeñas y sencillas. 

Esto es todo lo que podemos esperar de la Inteligencia Artificial en 2018

Someterlas a este juego de estrategia ha permitido observar los comportamientos de la inteligencia artificial en diferentes escenarios, y también conocer el grado de cooperación o de competitividad de estas redes neuronales. Algo que también sirve para mostrarnos cómo nos comportamos los seres humanos en cada situación, entrando en juego diferentes factores.

Éstos van desde el grado de dificultad que tiene la estrategia a seguir (cuando no tenemos que coordinarnos tanto es más fácil cooperar entre nosotros, y viceversa) hasta factores ambientales como la escasez y el tipo de recursos (lo que hace que varíe nuestro grado de percepción del riesgo).

[Fuente: IFL Sciencie]

Conoce cómo trabajamos en Computerhoy.