Logo Computerhoy.com

OpenAI trabaja en GTP4-32K, más caro y cuatro veces más potente que su predecesor

chat gpt4 32k

Tras el reciente lanzamiento de ChatGPT con GPT-4, OpenAI trabaja en una modalidad que cuadruplicará la potencia de su predecesora, pudiendo trabajar hasta con 24.000 palabras: GPT-4 32K.

OpenAI ya trabaja en un modelo superior a GPT-4, el GTP4 32K. Si bien el modelo actual puede trabajar con 6000 palabras, el nuevo GTP4-32K, chatbot en esteroides respecto a su predecesor, lo podría hacer con hasta 24000. 

GPT-4 tiene un 82% menos de probabilidades de responder a solicitudes de contenido no permitido y un 40 % más de probabilidades de producir respuestas basadas en hechos en comparación con GPT-3.5”, según las evaluaciones internas realizadas por OpenAI y, la nueva versión promete mucho más.

¿Aprueba ChatGPT el test de Turing?

La principal distinción entre ambas versiones radicará en la cantidad de tokens que usan para procesar los datos

Es importante recordar que los modelos GPT organizan, miden y procesan información mediante unidades básicas conocidas como tokens, los cuales son secuencias de caracteres. En el idioma inglés, se estima que un token equivale a 4 caracteres.

En este sentido, lo fundamental radica en el contexto capaz de entender el chatbot. Por ejemplo, será factible ingresar el código completo de una aplicación en una plataforma basada en este modelo, permitiendo a la IA identificar errores y sugerir mejoras. También será posible analizar documentos extensos para crear un resumen detallado con la herramienta inteligente.

Mayor potencia a cambio de más precio

Como era de esperar, el precio de GPT-4 32K será más elevado que en la versión básica. En términos generales, el costo se duplicará en comparación con la versión anterior. 

Si consideramos que el precio actual de ChatGPT con GPT-4 por cada 1,000 tokens es de unos 0.06 dólares, el uso de un prompt que utilice toda la capacidad de GPT-4 32K tendría un precio cercano a los 2 dólares por indicación de similares características, un precio que puede resultar muy elevado para el uso particular.

Sin embargo, este puede ser un precio aceptable para muchas empresas, plataformas, desarrolladores y usuarios profesionales que buscan maximizar su rentabilidad en función de los recursos y tiempo invertidos en sus proyectos. 

Además, estos nuevos ingresos, de tornarse en ganancias reales para Open AI, podrían significar un mejor y mayor desarrollo de la propia tecnología. En este sentido, recordamos que la desarrolladora se mueve en un escenario en que le cuesta ingentes cantidades de dinero mantener funcionando el chatbot y en el que se enfrenta a retos legales en Europa.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.