Logo Computerhoy.com

OpenAI cierra el equipo encargado de proteger a la humanidad de la IA: 'la seguridad ha pasado al asiento de atrás'

Rebelión interna en OpenAI, que supuestamente ha desmantelado el equipo que vigila la peligrosidad de sus IA a largo plazo. Su jefe se quejó en público de la falta de seguridad.

Jan Leike
Foto del redactor Juan Antonio Pascual Estapé

Redactor Colaborador

Vivimos en un escenario de ciencia-ficción, del que aún no somos conscientes. Pero es muy real. La posibilidad de que una IA más lista que el ser humano nos traicione, y acabe esclavizando o aniquilando a la humanidad. La dimisión de uno de los fundadores de OpenAI, y del jefe del equipo de Superalineación, Jan Leike, son una buena prueba de que es un tema muy serio.

Hace unos días dimitió uno de los fundadores de OpenAI, Ilya Sutskever, y ayer el jefe del equipo de Superalineación, Jan Lieke, tras decir en X que "en los últimos años, los procesos de seguridad han pasado al asiento de atrás frente a los productos con mucho brillo".

Por si alguien no tiene claro lo que está en juego, Jan Lieke afirma en el mismo hilo de X: "Construir máquinas más inteligentes que los humanos es una empresa intrínsecamente peligrosa. OpenAI asume una enorme responsabilidad en nombre de toda la humanidad".

OpenAI se devora a sí misma

Jan Lieke era el Jefe del equipo de Superalineación de Open AI. La misión de este equipo es proyectar la evolución de las IA de OpenAI a largo plazo, para determinar si pueden poner en peligro a la humanidad.

Ya hemos visto cómo la IA puede responder de forma indistinguible a un ser humano, cómo puede escribir código de programación, como puede mentir, e incluso "hacerse la muerta" para engañar a los humanos. Y hemos visto avances asombrosos, en solo un año, de GPT-3 al impresionante GPT-4o recién presentado.

No es difícil imaginar, en pocos años, o mañana mismo, una IA con capacidad para hackear, infiltrarse y tomar el control de misiles atómicos o centrales nucleares. No es ciencia-ficción, como estas dimisiones demuestran. Es una amenaza muy real.

Inteligencia artificial fallecidos

El  equipo de Superalineación de Open AI era el escudo de la humanidad frente al peligro de una IA más lista que el ser humano. Según Wired, tras la dimisión y las críticas de Jan Lieke, Sam Altman ha desmantelado a todo el equipo.

Es la segunda rebelión interna de OpenAI en pocos meses, tras el despido fulminante de Sam Altman, que regresó triunfante, de la mano de Microsoft, despidiendo a todos los "traidores". Como ha ocurrido ahora.

"Dejar este trabajo ha sido una de las cosas más difíciles que he hecho nunca, porque necesitamos urgentemente averiguar cómo dirigir y controlar sistemas de IA mucho más inteligentes que nosotros, Estos problemas son muy difíciles de resolver, y me preocupa que no estemos en el buen camino para conseguirlo", asegura Jan Lieke.

5 mejores películas clásicas de robots para temer de verdad a la inteligencia artificial

Pocas personas en el mundo saben más de seguridad de la IA, que Jan Lieke. Y está tan atemorizado, que ha preferido dimitir, antes que ver cómo OpenAI no prioriza la seguridad.

Las compañías tecnológicas se han sumergido en una carrera desenfrenada por lanzar una IA más avanzada que el rival, casi cada semana. En estas condiciones, la seguridad está en entredicho. Algo no cuadra cuando el futuro de la humanidad está en manos de cuatro o cinco empresas privadas, con empleados que se rebelan cada dos por tres.

Conoce cómo trabajamos en Computerhoy.

Etiquetas: Inteligencia artificial