Logo Computerhoy.com

Sam Altman quiere calmar las aguas y afirma que la IA a nivel humano no será tan apocalíptica como se cree

Sam Altman, CEO de OpenAI.

TechCrunch Disrupt/Flickr

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

  • Sam Altman, CEO de OpenAI, parece que ha querido moderar sus palabras con respecto a las AGI y afirma que la IA a nivel humano no será tan disruptiva como piensa la sociedad.
  • "Cambiará el mundo mucho menos de lo que todos pensamos y cambiará los empleos mucho menos de lo que todos pensamos", dijo Altman en una conversación organizada por Bloomberg en el Foro Económico Mundial en Davos, Suiza.
  • ¿Cómo los pilotos recuperan tiempo en los vuelos? No, no es acelerando más.

En una conversación organizada por Bloomberg en el Foro Económico Mundial en Davos, Suiza, Sam Altman dijo que la IA general, o AGI, un término utilizado para referirse a una forma de inteligencia artificial que puede completar tareas al mismo nivel, o un paso por encima, de los humanos, podría desarrollarse en un "futuro razonablemente cercano".

Sin embargo, Altman parece que ha querido calmar las aguas —quién sabe si esto es cierto o realmente lo hace para no alarmar— diciendo que la AGI no será esa tecnología apocalíptica que muchos temen. En cambio, afirmó que será una herramienta que se puede utilizar para mejorar la vida de las personas.

"Cambiará el mundo mucho menos de lo que todos pensamos y cambiará los empleos mucho menos de lo que todos pensamos", dijo.

Altman se basó en su propia experiencia con la IA, diciendo que OpenAI ha estado desarrollando esta tecnología durante años y que aún no ha visto que tenga un impacto enorme en el mundo. "No hemos visto que la IA cambie el mundo de una manera dramática", dijo. "Hemos visto que la IA se vuelve un poco mejor en algunas cosas, pero no ha cambiado el mundo de una manera que la gente estaba preocupada".

¿A qué se debe este tono tan moderado de Altman con respecto a la IA?

Teniendo en cuenta esas cartas firmadas por grandes personajes del sector y las propias palabras de Altman diciendo en Madrid —como parte de su gira mundial— que "la inteligencia artificial es tan peligrosa como las armas nucleares", parece que ha habido un gran cambio de tono por su parte

Es bastante probable que Altman esté tratando de tranquilizar a la opinión pública sobre la IA. Es posible que esté preocupado por el creciente temor a esta tecnología, que podría obstaculizar su desarrollo y adopción. Al afirmar que la IA no será tan disruptiva como algunos temen, puede estar tratando de calmar un poco las aguas.

También es posible que esté tratando de posicionar a OpenAI como un líder en el desarrollo seguro de la IA. Al afirmar que no será una amenaza existencial, puede estar tratando de convencer a los gobiernos y al mundo de que OpenAI es una empresa responsable que puede ayudar a garantizar que esta tecnología  se desarrolle de manera segura y responsable.

Desde luego, no da puntada sin hilo, teniendo en cuenta que habla de la AGI, un gran avance en el campo de la IA, para el cual aún quedan demasiados años. 

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.