Logo Computerhoy.com

Los riesgos de GPT-4 o cuando una IA empieza a ser demasiado inteligente

Los riesgos de GPT-4 o cuando una IA empieza a ser demasiado inteligente

El 14 de marzo el nuevo modelo GPT-4 de OpenAI aterrizó y ahora las dudas se centran en si todos estos avances podrían dar lugar a potenciales riesgos para la humanidad.

OpenAI finalmente presentó GPT-4, un modelo de lenguaje de próxima generación que se rumoreaba que estuvo en desarrollo durante gran parte del año pasado. El último éxito sorpresa de la compañía con sede en San Francisco, ChatGPT, parecía inmejorable, pero OpenAI ha hecho que GPT-4 sea aún más grande y mejor y sirva para grandes y nuevas aplicaciones.

Sin embargo, todo esto puede llevar a algunos a pensar si realmente esta mejora está allanando el camino de lo que se conoce como singularidad tecnológica, es decir, que estas máquinas y sistemas se desarrollen de manera tan rápida que sean capaces de mejorarse a sí mismos y de forma recurrente.

OpenAI y como parte del proceso de creación del modelo llevaron a cabo una prueba con expertos para evaluar los potenciales peligros de esta novedad en inteligencia artificial

En concreto, se examinaron 3 aspectos de GPT-4: el comportamiento de búsqueda de poder, la autorreplicación y superación personal.

¿Es GPT-4 un riesgo para la humanidad?

"Las capacidades novedosas a menudo surgen en modelos más potentes", escribe OpenAI en un documento de seguridad de GPT-4 publicado ayer. "Algunos que son particularmente preocupantes son la capacidad de crear y actuar en planes a largo plazo, acumular poder y recursos (búsqueda de poder) y exhibir un comportamiento que es cada vez más 'humano'".

En este caso, OpenAI aclara que ese humanismo no implica que el modelo ya sea igual que las personas o tenga sensibilidad, sino simplemente quiere denotar la capacidad de lograr objetivos independientes.

Todo lo que debes saber de GPT-4 y cuáles son las grandes diferencias con la versión GPT-3

Teniendo en cuenta el gran potencial de herramientas como ChatGPT, la llegada de GPT-4 y un más que posible chatbot reforzado OpenAI otorgó al grupo Alignment Research Center (ARC) acceso temprano a múltiples versiones del modelo GPT-4 para realizar algunas pruebas. 

ARC es una organización sin fines de lucro fundada por el ex empleado de OpenAI, el Dr. Paul Christiano, en abril de 2021. Según su sitio web, la misión de ARC es "alinear los futuros sistemas de aprendizaje automático con los intereses humanos".

Más allá de ChatGPT: 15 herramientas de inteligencia artificial de gran utilidad

Específicamente evaluó la capacidad de GPT-4 para hacer planes de alto nivel, configurar copias de sí mismo, adquirir recursos, ocultarse en un servidor y realizar ataques de phishing. "Las evaluaciones preliminares de las habilidades de GPT-4, realizadas sin un ajuste fino específico de la tarea, lo encontraron ineficaz para replicarse de forma autónoma, adquirir recursos y evitar ser apagado 'en la naturaleza'", explican.

El gran problema es que estos resultados tardaron un poco en hacerse efectivos mientras que la comunidad de especialistas en inteligencia artificial eran conscientes de la realización de estas pruebas y la llama comenzó a arder en redes sociales. Afortunadamente parece que las aguas se vuelven a calmar, ¿o no?

Mientras algunos discuten sobre estas posibilidades con la IA, empresas como OpenAI, Microsoft, Anthropic y Google siguen lanzando modelos cada vez más potentes. Si esta resulta ser un riesgo existencial, ¿será posible mantenernos a salvo? Quizá todo esto revolucione a las instituciones y se desarrolle una ley que proteja a los usuarios y regule la inteligencia artificial.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.