Logo Computerhoy.com

OpenAI se preocupa (ahora sí) por la seguridad de ChatGPT-5, ¿rectificación o postureo?

Después de las dudas generadas acerca de la seguridad de ChatGPT, sus responsables parecen preocuparse ahora por el tema, mientras planean ya la próxima versión de su conocida herramienta. 

OpenAI se preocupa (ahora sí) por la seguridad de ChatGPT-5, ¿rectificación o postureo?

El caso de la inteligencia artificial es, cuanto menos, curioso. No se puede definir de otra manera. Se trata sin duda del tema de moda, y además cada día surge nueva información relacionada con ella, pero incluso así no sabe qué sucederá. ¿Se trata de un adelanto que nos facilitará la vida a todos como nunca antes o, por el contrario, supondrá un desastre catastrófico?

Gran parte de las dudas, de hecho, tienen un nombre propio: OpenAI. Los creadores del popular ChatGPT no parecen terminar de tener clara cuál es su hoja de ruta, al menos en materia de seguridad. Ahora han anunciado que tomarán nuevas medidas, junto con ChatGPT-5, es cierto, pero ¿justo después de que sus anteriores responsables abandonarán el barco?

A vueltas con OpenAI y su inteligencia artificial

Científicos sin pelos en la lengua: “la inteligencia artificial podría suponer el fin para la humanidad”

Las polémicas en torno a la seguridad en OpenAI no son nuevas. De hecho, el propio CEO de la empresa fue despedido, según parece, porque informaba de los avances en su inteligencia artificial por Twitter. A sus propios compañeros, sí. Aunque da la impresión de que el mediático despido (y el posterior regreso) de Sam Altman no hizo escarmentar al experto. 

Hace unas semanas, sucedía algo similar, aunque con otros protagonistas (hasta cierto punto). Dos de los responsables de ética de la IA decidían dejar OpenAI, según sus palabras, porque nadie en la compañía se estaba tomando en serio su labor, y solo estaban preocupados por saber lo lejos que podían llegar antes de que lo hiciese la competencia. 

Todo el mundo habla de ella, pero: ¿cómo funciona la inteligencia artificial?

¿Y qué sucede con la competencia? Pues que tampoco está mucho mejor. El propio Elon Musk, sin ir más lejos, tan pronto dice que la IA —y los robots— ayudarán a la gente a vivir sin trabajar (cobrando un buen sueldo), como de repente suelta que existe un riesgo de que esta tecnología acabe con la humanidad, sí. Y no es el primero que se pone catastrofista.

En mitad de esta singular situación, por llamarla de alguna forma, OpenAI ha anunciado la formación de un Comité de Seguridad y Protección. 

Llama la atención, sin embargo, que esta responsabilidad recaiga sobre los jefes de la compañía, entre ellos su presidente Bret Taylor y, ojo, el propio Sam Altman. Es decir, ¿van a vigilarse a ellos mismos?

La seguridad y ChatGPT-5

Esta medida, según han confirmado desde OpenAI, supondrá que los especialistas revisen el funcionamiento de la inteligencia artificial durante 90 días, pasados los cuales informarán de los correspondientes resultados en materia de seguridad. Todo, mientras sugieren que ya están entrenando lo que deberías de ser ChatGPT-5. 

De ser así, es difícil saber cuándo Sam Altman y compañía harían el anuncio oficial, pero todo parece sugerir que seguramente llevaría un tiempo. Si ahora están entrenando a ChatGPT-5, probablemente todavía quede un largo camino por delante hasta que sean capaces de pulir y dar luz verde a la nueva versión de su herramienta. 

¿Lograrán disipar las dudas acerca de la seguridad de la IA cuando eso suceda? Por el momento, no se sabe, y las dudas son más que las certezas sobre este tema, eso está claro. 

Conoce cómo trabajamos en Computerhoy.

Etiquetas: Inteligencia artificial