Logo Computerhoy.com

ChatGPT podría ser el gran enemigo de las GPU tras las criptomonedas

Minado con GPU

El gran fenómeno de 2023 es la inteligencia artificial. Los grandes modelos de lenguaje están revolucionando el mundo tal y como lo conocemos. ChatGPT, el chatbot más famoso del momento, ¿podría amenazar el stock de tarjetas gráficas como hizo en su momento el Bitcoin?

Todo el mundo sabe qué es la inteligencia artificial conversacional por culpa de ChatGPT y de Microsoft Bing. Y dada la naturaleza de los grandes modelos lingüísticos (LLM) que tanta potencia de cálculo necesitan se entendería que los gamers sintieran miedo: ¿irán a por nuestras GPU?

Aunque los LLM se ejecutan en enormes servidores en la nube, utilizan GPU especiales para realizar todo el entrenamiento que necesitan para funcionar. Es decir, no vale cualquier tarjeta gráfica y, como ahora verás, no vale con un par de GPU conectadas al ordenador.

Hacer funcionar un LLM significa alimentar una enorme cantidad de datos a través de redes neuronales que se ejecutan en una matriz GPU con sofisticados núcleos Tensor, y no solo requiere mucha energía, sino que también requiere una gran cantidad de GPU reales para hacerlo a escala.

Y con el auge de ChatGPT y los grandes modelos lingüísticos, ¿estamos cerca de ver una repetición de la escasez de GPU en tiempos de la minería de Bitcoin y Ethereum? Es poco probable, pero tampoco imposible.

Los gamers no deberían estar preocupados

Aunque se podría pensar que la mejor tarjeta gráfica que se puede comprar es el tipo de cosa que los que se dedican al aprendizaje automático podrían querer para sus configuraciones, estaríamos equivocados.

A menos que estés en una universidad y estés investigando algoritmos de aprendizaje automático, una tarjeta gráfica de consumo no va a ser suficiente para manejar el tipo de algoritmo que necesitas.

Minería Bitcoin

ChatGPT procesa en cada búsqueda una cantidad insondable de texto y una GPU de consumo no es tan adecuada para esta tarea como las GPU industriales que se ejecutan en servidores.

Éstas son las GPU que van a tener una gran demanda, y esto es lo que tiene a NVIDIA tan entusiasmada con ChatGPT: no es que ChatGPT vaya solo a ayudar a la gente, sino que su utilización va a hacer inmensamente rica a NVIDIA y su división de tarjetas gráficas de servidor.

¿Crees que ChatGPT es demasiado light? OpenAI quiere dotarlo de más personalidad y controversia

El próximo ChatGPT se ejecutará en la nube, no en tu ordenador

A menos que seas Google o Microsoft, no estás ejecutando tu propia infraestructura LLM. Estás utilizando la de alguien más en forma de servicios en la nube. Eso significa que no va a haber un montón de nuevas empresas comprando todas las tarjetas gráficas para desarrollar sus propios LLM. 

Lo más probable es que veamos LLMaaS, o grandes modelos lingüísticos como servicio. Tendrás centros de datos de Microsoft Azure o Amazon Web Services con enormes granjas de servidores llenas de GPU listas para alquilar para tus algoritmos de aprendizaje automático.

Esto significa que a medida que ChatGPT y otros modelos de IA proliferan, no van a ejecutarse localmente en hardware de consumo, por mucho que sus usuarios sean un pequeño equipo de desarrolladores. Se ejecutarán en hardware de servidor, así que nadie vendrá a por tu GPU.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.