Logo Computerhoy.com

El creador de ChatGPT lo tiene claro: frenar el progreso de la inteligencia artificial sería el mayor fallo de la humanidad

El creador de ChatGPT lo tiene claro: frenar el progreso de la inteligencia artificial sería el mayor fallo de la humanidad

Sam Altman se ha erigido como el máximo representante de la inteligencia artificial a nivel mundial y su gira internacional exponiendo los peligros de esta tecnología ha ido acompañada de una mirada al futuro bastante criticada por algunos.

Sam Altman, el creador del chatbot de IA ChatGPT, está liderando un esfuerzo internacional para convencer a los líderes mundiales de que tomen en serio el "riesgo de la IA", pero a su vez no cesa en la búsqueda de desarrollar una "inteligencia general artificial" (AGI), un sistema de IA capaz de realizar cualquier tarea humana

En pocas palabras y mientras que la IA se refiere a algo más complejo que un Tamagotchi, el concepto de AGI representa la inteligencia a nivel del ser humano, un tipo de IA que permite comprender, aprender y realizar tareas intelectuales de forma muy parecida al cerebro de las personas.

En su gira mundial y tal y como se explica en un artículo de The Guardian, Altman también destaca los beneficios potenciales de desarrollar una "superinteligencia", un AGI que va aún más allá y es altamente avanzada al ser capaz de resolver problemas que la humanidad no ha logrado descifrar. 

Aunque esto conlleva riesgos, este argumenta que los beneficios son tan enormes que vale la pena arriesgarse y explorar esta posibilidad, incluso si implica "destruir todo lo que conocemos" —no de forma literal— para lograrlo.

'No progresar sería un gran fallo para humanidad'

"Creo que una carrera hacia AGI es algo malo", dice Altman en una charla en la Universidad de Oxford, "y creo que no progresar en seguridad es algo malo", pero comenta que la única forma de obtener seguridad es con el "progreso de la capacidad", es decir, construir sistemas de inteligencia artificial más fuertes, para estimularlos mejor y comprender cómo funcionan.

Una de las principales críticas a esta gira mundial de Altman se centra precisamente en su mirada al futuro. Exponen que este está más enfocado en lograr la AGI e incluso ya hablando de "superinteligencia" que en logar un marco regulatorio seguro para la IA actual

Retrasar el desarrollo de la IA 6 meses por su potencial peligro, ¿a favor o en contra?

"Hay diferentes escalas de tiempo, pero tenemos que abordar cada uno de estos desafíos". Menciona algunas preocupaciones: "Creo que se avecina uno muy serio, la desinformación sofisticada y un poco después de esto, tal vez problemas de ciberseguridad. Estos son muy importantes, pero nuestra misión particular es sobre AGI. Y creo que es muy razonable que hablemos más de eso, aunque también trabajemos en otras cosas”.

No cabe duda que sus ideas son bastante claras. Considera que es el siguiente paso evolutivo en la inteligencia artificial y que tiene el potencial de tener un impacto transformador en la sociedad. Altman ve el desarrollo de AGI como una meta importante y desafiante que requiere un enfoque y esfuerzo global.

Si bien es cierto que existen aspectos actuales de la IA que es vital que se mejoren, como la ética, la privacidad y la seguridad, Altman considera que su evolución es el punto de inflexión que llevará a avances significativos en estos aspectos y a resolver problemas complejos que la humanidad enfrenta en la actualidad y seguramente los que vengan en el futuro.

Busca impulsar una visión a largo plazo y argumenta —se desconoce si de forma acertada o no— que los beneficios potenciales superan ampliamente las preocupaciones actuales y que vale la pena explorar el potencial de AGI para el progreso.

La "alucinación" de la inteligencia artificial, el gran error y potencial peligro de esta tecnología

Todo se centra en el mismo objetivo: que la "superinteligencia" acabe trabajando para nosotros y no contra nosotros y no frenar su desarrollo, solo controlarlo. Además, para ejemplificar esta idea se apoya en algunos sucesos del pasado bastante interesantes.

Explica que si los gobiernos de todo el mundo decidieran actuar para limitar el desarrollo de la IA, como lo han hecho en otros campos, como la clonación humana o la investigación de armas biológicas, es posible que puedan hacerlo, pero eso sería renunciar a todo lo que es posible. "Creo que este será el avance más tremendo en la calidad de vida de las personas que hemos tenido, y creo que de alguna manera se pierde en la discusión", añade.

Con todo esto, es cierto que se puede ver criticable ese pensamiento a futuro de Sam Altman cuando la necesidad de actuar de forma inmediata es más relevante, pero es igual de inteligente no dejar de pensar en el futuro y seguir encargándose de desarrollar herramientas aún más potentes en las que de forma temprana se exploren sus beneficios y se corrijan sus desventajas.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.