Robots de Google que son capaces de aprender por sí mismos

¿Qué es LIFE?
¿Qué es LIFE?
brazos roboticos de google conectados

El investigador de Google Sergey Levine ha intentado crear un sistema de inteligencia artifical a través de robots que aprenden solos bajo un entorno de aprendizaje basado en ensayos de prueba error.

A través de 14 brazos robóticos interconectados se ha intentado que estos dispositivos sean capaces de aprender a coger y soltar pequeños objetos depositados sobre unas bandejas metálicas.

Para el estudio, el equipo de Levine ha usado redes neuronales convolucionales, con el fin de que estos robots pudieran aprender distintas formas de coger objetos tan diferentes como una taza, una cinta pegante, y un delfín de juguete con luces de neón verde.

Este experimento pretende emular la visión humana y el entendimiento del entorno para clasificar imágenes y los objetos que la componen y podría ayudar a otras máquinas a predecir el resultado de este tipo de movimientos.

Este experimento es parte de los avances que ha hecho Google desde que abrió el departamento de robótica en 2014.  De momento, estos robots no pueden responder a los cambios en el medio ambiente de la misma manera que un ser humano sí puede. Solo pueden desempeñar tareas en lugares y objetos predecibles ya que están programados para reconocer un objeto y reaccionar ante él de una manera determinada.

Los 6 mejores robots  

El reto que se han planteado en Google consiste en entrenar a robots para que puedan coger objetos que nunca antes han visto antes. Por ello, los investigadores hicieron que los brazos metálicos eligieran objetos al azar de la bandeja antes mencionada. Tras 800 mil intentos, los brazos en red fueron capaces corregir de sus acciones. Poco a poco estos brazos robóticos fueron capaces de reconocer y coger los objetos con mayor frecuencia e incluso, desechar y empujar los objetos que le estorbaban.

El porcentaje de error de los robots antes del entrenamiento era del 34 % durante los primeros 30 intentos, pero se redujo al 18 % después de varias pruebas.

Los dispositivos también han podido diferenciar las cosas duras de las suaves. Esto es posible gracias a una cámara que registra la información y que la lleva a un primer sistema que se encarga de predecir la mejor forma de coger el objeto, dependiendo de todo lo que ha estado aprendiendo desde que fue creado el sistema.

Los investigadores planean ampliar el estudio a una mayor variedad de agarres, para probarlos en diferentes ambientes y escenarios fuera del laboratorio.

[Fuente: The Verge]