Logo Computerhoy.com

El gran problema de la IA: ChatGPT pierde dinero cada vez que le preguntas

Inteligencia artificial IA ChatGPT

Getty Images

La escasez de chips, los grandes centros de datos, el entrenamiento y desarrollo de los modelos de lenguaje con inteligencia artificial tienen un alto costes. La reducción de costes es la gran prioridad de las empresas que ya prueban varios enfoques.

El creciente coste de operar los grandes modelos lingüísticos actuales, como ChatGPT y Google Bard, está afectando su calidad y amenazando el auge global de la IA. El precio y la disponibilidad limitada de los chips necesarios están restringiendo el acceso de las empresas y presionando incluso a las compañías más ricas a convertir los chatbots en generadores de ingresos más rápido de lo esperado.

Los expertos señalan que los modelos de inteligencia artificial como ChatGPT desplegados en la actualidad no son los mejores disponibles y presentan debilidades como resultados sesgados o falsedades debido a las limitaciones impuestas por los costos.

Según Tom Goldstein, profesor de informática de la Universidad de Maryland, los modelos desplegados actualmente no son los más avanzados y tienen muchos puntos débiles, incluyendo la propensión a generar resultados sesgados o falsedades flagrantes. 

Nos hemos pasado los últimos cuatro años intentando fabricar los modelos más grandes que podíamos”, ha declarado. Pero eso fue cuando el objetivo era publicar artículos de investigación, no lanzar chatbots de IA al público.  

Ahora, solo en los últimos meses, se ha producido un giro completo en la comunidad, y de repente todo el mundo intenta construir el modelo más pequeño que pueda para controlar los costes”, ha querido reflexionar.

En este sentido, el coste requerido por la IA es la razón por la cual OpenAI ha excluido su nuevo y poderoso modelo de lenguaje, GPT-4, de la versión gratuita de ChatGPT. Incluso los usuarios que pagan 20 dólares al mes por GPT-4 solo pueden enviar 25 mensajes cada tres horas debido a los altos costos de ejecución.

Por su parte, Bard, de Google, tropezó con datos básicos en su demostración de lanzamiento, lo que supuso una pérdida de 100.000 millones de dólares en el valor de las acciones de Google. Y Bing Chat, se descarriló muy pronto, lo que llevó a Microsoft a reducir tanto su personalidad como el número de preguntas que los usuarios podían hacerle en una conversación.

La preocupación al respecto ha llegado hasta el gobierno de Biden, que ha señalado los costes computacionales de la IA generativa como una preocupación nacional, advirtiendo sobre las crecientes demandas y los impactos medioambientales asociados. La Casa Blanca ha instado a diseñar sistemas más sostenibles.

Grandes centros de datos para los modelos lingüísticos

Es necesario recordar que el alto precio de los modelos lingüísticos de IA incluye el desarrollo y entrenamiento, que requieren grandes cantidades de datos y la contratación de investigadores expertos. 

Además, cada consulta a un chatbot requiere el procesamiento de supercomputadoras en centros de datos, lo que implica un uso intensivo de unidades de procesamiento gráfico (GPU). Actualmente, Nvidia es la principal proveedora de las GPU, y la demanda ha contribuido a su valoración de mercado y a la escasez de suministro.

La reducción del precio es una prioridad para las empresas, y se están explorando diferentes enfoques. Mientras OpenAI ha lanzado versiones más ligeras y económicas de sus modelos, mientras que Google está desarrollando sus propios chips de IA para mejorar la eficiencia.

Sin embargo, los expertos advierten que el acceso gratuito y sin restricciones a modelos de IA potentes podrían limitarse en el futuro. Empresas como Microsoft ya están experimentando con la inclusión de publicidad en los resultados, y Bing Chat que se expandirá a otros buscadores, lo que no puede no ser suficiente.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.