La inteligencia artificial de Facebook desarrolla su propio idioma

inteligencia artificial idoma

Un equipo de científicos del Laboratorio de Investigación de Inteligencia Artificial de Facebook (FAIR por sus siglas en inglés) ha realizado un descubrimiento inesperado: su IA ha desarrollado su propio idioma. El hallazgo se ha producido cuando los investigadores tenían la intención de mejorar sus chatbots, conocidos como "agentes de diálogo", lo que les ha permitido darse cuenta de que los robots han creado un lenguaje para comunicarse entre sí.

Las capacidades de la inteligencia artificial no dejan de sorprendernos. Sus habilidades superan con creces las humanas en muchos aspectos; no en vano, los robots amenazan con destruir empleos y bajar salarios, consiguen victorias aplastantes en juegos complejos como Go y baten todos los récords en clásicos como Pac-Man, pueden programar software e incluso son capaces de crear sus propias IA

Ahora, este nuevo descubrimiento pone de manifiesto una nueva habilidad de la inteligencia artificial para crear un lenguaje propio con el que comunicarse. De acuerdo con los investigadores de Facebook, dejaron a los chatbots hablando libremente mediante el uso de algoritmos de machine learning con el objetivo de que pudieran reforzar sus capacidades de conversación. 

Este libro describe todo lo que debes saber sobre inteligencia artificial

Con el tiempo, los agentes de diálogo empezaron a desviarse de las secuencias de comandos y, al hacerlo, comenzaron a comunicarse en un idioma completamente nuevo, desarrollado sin ninguna intervención humana. La conversación no parece tener ningún sentido, pero lo curioso de todo esto es la capacidad de la IA para desviarse de las pautas marcadas y crear algo nuevo por sí misma.

La IA de Facebook e Intel gana un torneo de Doom

La independencia demostrada por la IA de Facebook supone un paso adelante en la evolución de la tecnología, pero al mismo tiempo puede reabrir el debate acerca de si la inteligencia artificial puede llegar a revelarse y suponer un peligro para el futuro.

[Fuente: The Next Web]