Logo Computerhoy.com

OpenAI fija 5 niveles para alcanzar la inteligencia artificial general y este es el de ahora

Los chatbots actuales, como ChatGPT, están en el nivel 1. OpenAI afirma que se está acercando al nivel 2, definido como un sistema que puede resolver problemas básicos al nivel de una persona con un doctorado.

Inteligencia artificial general

Getty Images

La inteligencia artificial no deja de avanzar y OpenAI ya podría considerarse como la empresa estrella si se habla de esta tecnología. Recientemente, esta compañía ha definido una escala de cinco niveles para medir el progreso hacia la inteligencia artificial general (AGI), que es la capacidad de una IA para alcanzar las capacidades o la inteligencia de un ser humano. 

Según OpenAI, actualmente se encuentran en el nivel 1, que corresponde a la IA conversacional que ya conoces, como ChatGPT. Sin embargo, creen que están cerca de alcanzar el nivel 2, donde la IA podría resolver problemas complejos similares a los que resolvería una persona con un doctorado.

El nivel 2 se denomina "Razonadores" y se refiere a una IA capaz de resolver problemas básicos de manera autónoma, sin acceso a herramientas. Más allá de esto, el nivel 3 se llama "Agentes" y describe una IA que puede realizar tareas en nombre del usuario durante varios días. El nivel 4, "Innovadores", involucra a una IA capaz de crear cosas nuevas. Finalmente, el nivel 5, el más avanzado, sería una IA que puede llevar a cabo el trabajo de empresas enteras, superando a los humanos en la mayoría de las tareas.

El motivo de establecer estos niveles, aunque parezca absurdo, es tener una forma clara y grupal de medir el avance hacia AGI, lo que es clave dado el impacto potencial que esta tecnología podría tener en la sociedad. 

Luces y sombras en el camino de OpenAI por alcanzar la AGI

Esta nueva escala de calificación, aunque aún está en desarrollo, se introdujo un día después de que OpenAI anunciara su colaboración con otras instituciones para investigar formas de aplicar la IA de una forma segura. Un ejemplo es la nueva colaboración con el Laboratorio Nacional de Los Álamos, que busca utilizar modelos avanzados de IA para apoyar la investigación biocientífica de manera segura. 

Sin embargo, este camino no está siendo precisamente de rosas para la empresa. En mayo, OpenAI disolvió su equipo de "Superalineación", que se encargaba de ver los potenciales riesgos para los humanos de la IA. 

Algunos expertos, como Jan Leike, un investigador que dejó la empresa, han expresado lo realmente preocupado que está porque precisamente en un caso tan importante la seguridad haya pasado a un segundo plano. A pesar de esto, OpenAI insiste en que la seguridad sigue siendo una prioridad y que están comprometidos a desarrollar AGI de manera responsable.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial, Software, Ciberseguridad