Logo Computerhoy.com

España lidera el futuro: logran una inteligencia artificial que razona y aprende como un ser humano

inteligencia artificial

Getty

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

  • La Universidad Pompeu Fabra en Barcelona junto con la Universidad de Nueva York logran crear una inteligencia artificial que es capaz de razonar y aprender igual o incluso mejor que los humanos.
  • "Lo que hemos podido demostrar es que nuestra red neuronal resuelve problemas nuevos sobre la marcha, problemas que no había visto antes. Eso OpenAI aún no lo ha logrado", explican los autores.
  • El truco viral del lápiz para que las cerraduras funcionen siempre como el primer día.

Sin lugar a dudas, uno de los debates más jugosos en el mundo de la inteligencia artificial es si las máquinas pueden llegar a pensar y razonar como los seres humanos

Hace más de 30 años, se estableció que las redes neuronales, la esencia más pura en la que se basa la IA, no eran capaces de realizar lo que se conoce como "generalizaciones compositivas", es decir, conectar nuevos conceptos con otros ya conocidos para aprender, algo que los humanos hacen de manera natural desde que nacen.

Sin embargo, cuidado porque una investigación en conjunto de la Universidad de Nueva York y la Universidad Pompeu Fabra en Barcelona está poniendo a prueba esta creencia y podría cambiar la idea actual de lo que la IA es capaz de hacer.

Los científicos detrás de este avance han desarrollado una técnica llamada "Meta-Aprendizaje Compositivo" (MLC), que permite a las redes neuronales artificiales aprender nuevos conceptos y conectarlos con conceptos previos, creando así un proceso de aprendizaje igual al humano. Esto quiere decir que la IA ya no imitaría al humano, sino que sería capaz de aprender por sí misma.

Inteligencia Artificial

Esta nueva técnica permite que la IA aprenda y razone al igual que lo haría un humano (o mejor)

Lo que es aún más novedoso es que, en ocasiones, el rendimiento de esta IA es igual, pero incluso puede ser mejor que el razonamiento humano. Todo lo relacionado con esta novedad, está publicada en la revista Nature, aunque también puedes encontrarlo en la web de la propia universidad de Nueva York.

Además, menciona que el MLC supera a chatbots basados en inteligencia artificial famosos, como ChatGPT, en tareas de generalización compositiva. Este puede crear composiciones complejas a partir de conceptos más simples, demostrando una capacidad que hasta ahora no se ha visto. 

Como antes se ha mencionado, los sistemas actuales de inteligencia artificial no han sido capaces de captar las sutilezas del aprendizaje humano. Por ejemplo, cuando un niño aprende a esquivar un obstáculo, rápidamente comprende cómo hacerlo hacia un lado o hacia atrás. Por así decirlo, es algo innato en la mente humana.

Pero los investigadores Brendan Lake de la Universidad de Nueva York y Marco Baroni, profesor de la Universidad Pompeu Fabra y el Instituto Catalán de Investigación y Estudios Avanzados, han demostrado que tienen una IA que puede hacerlo

Inteligencia Artificial

Su enfoque, el MLC, antes comentado, se centra en entrenar una red neuronal con ejemplos de comportamiento humano, actualizándola constantemente para generar un aprendizaje.

Para lograrlo, introdujeron palabras como "saltar" y pidieron a la red neuronal que creara nuevas composiciones gramaticales, como "saltar dos veces" o "saltar a un lado". La IA aprendió estas relaciones y, posteriormente, recibió una nueva palabra y otra solicitud para generar palabras relacionadas, repitiendo este proceso una y otra vez. 

Este método de entrenamiento fue permitiendo que la IA asimilase conceptos y aprendiese a relacionarlos igual a como lo haría un ser humano. Además, mencionan que los errores que comete también se asemejan a los errores de las personas, lo que añade una capa extra de esencia humana.

"Quizás lo más interesante es que también podemos entrenar la red neuronal para que los errores sean mucho más humanos. Cuando ChatGPT y otras IA generativas alucinan y se equivocan, los errores que producen son muy extraños, no es algo que diría una persona. Con este sistema de entrenamiento, digamos que la IA también se equivoca como si fuera una persona", explica Baroni. 

Padres de la inteligencia artificial: ¿Cuándo empezó la revolución y locura por esta tecnología?

Una investigación que ha dejado a la comunidad con la boca abierta y que adelanta por la derecha a OpenAI

Este estudio, como no podría ser de otra forma, ha generado un gran entusiasmo en la comunidad científica, y los expertos han calificado el trabajo de "ingenioso". Teodoro Calonge, profesor de informática en la Universidad de Valladolid, señala que desde un punto de vista técnico, el enfoque utilizado es impecable. 

Sin embargo, también advierte que este avance no resolverá los problemas relacionados con entender al 100% la inteligencia artificial, es decir, cómo la IA llega a sus predicciones y resultados.

Por último, resaltar que este gran logro por parte de dos universidades es uno de los grandes objetivos de OpenAI y la figura mítica detrás de esta empresa, Sam Altman. La empresa ha estado trabajando —y está trabajando— en incluir "valores humanos" en la IA, pero esta investigación les ha adelantado por la derecha, demostrando que la IA es capaz de resolver problemas de forma más humana.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.