Logo Computerhoy.com

OpenAI les ha puesto contra las cuerdas: esta es la estrategia de Google para recuperar el trono de la IA

Otro año más, Google centra su evento para desarrolladores enteramente en inteligencia artificial, un día después de que OpenAI deslumbrase con GPT-4o.

Sundar Pichai en Google IO 2024

Google / Computer Hoy

Foto del redactor Manu ContrerasFoto del redactor Manu Contreras

La presión a Google sobre lo que inteligencia artificial se refiere es evidente. Solo un día después de que OpenAI desvelase al mundo GPT-4o y mostrase al mundo lo que son capaces de hacer con una IA multimodal como nunca habíamos visto, Google ha mostrado sus avances en inteligencia artificial durante el Google I/O 2024.

Un año desde el anuncio de Bard, después renombrado a Gemini, ha pasado mucho y Google ha integrado su inteligencia artificial en muchos de sus productos. Aun así, con 2 mil millones de usuarios, OpenAI –ChatGPT en concreto– sigue siendo el estándar y la IA más importante en el mundo.

Sundar Pichai, el CEO de Google, comentó durante su presentación que más de 1.5 millones de desarrolladores usan Gemini. Y es que su IA  ya está integrada en millones de móviles directamente en la aplicación de Google en Android y en iOS, pero también lo estará en Google Fotos, donde se suben más de 6.000 millones de vídeos y fotos todos los días.

Gemini en más sabores, integrado en todos sus productos

El primer gran anuncio de Google es que Gemini 1.5 Pro ya está disponible para todos los desarrolladores en todo el mundo, en 35 idiomas y cuenta con 2 millones de tokens de contexto, el doble de la versión anterior.

Google demostró a Gemini 1.5 Pro con un sistema de audio multimodal con lenguaje totalmente natural, fácil de entender, al que puedes "molestar" pidiendo más información. Extremadamente similar a las demos que OpenAI realizó con GPT-4o, lo que demuestra que Google se está acercando muchísimo a OpenAI.

También demostró sus posibilidades en Google Fotos, cuya aplicación móvil integrará una ventana de conversación al que le puedes hacer preguntas sobre personas o eventos en las fotos.

Google también presentó Gemini 1.5 Flash, un modelo diseñado para ser más eficiente y barato para desarrolladores, especialmente interesante para integrarlo en chatbots o aplicaciones donde tienes que extraer datos de archivos y documentos.

Google también permitirá crear versiones personalizadas de Gemini, unas iteraciones entrenadas para tareas concretas, muy similar a la GPT Store de OpenAI.

La misión de Google: organizar la información mundial y hacerla universalmente accesible y útil… con la ayuda de la IA

El lema de Google: "Organizar la información mundial y hacerla universalmente accesible y útil"
El lema de Google: "Organizar la información mundial y hacerla universalmente accesible y útil"

Demis Hassabis, CEO de Google DeepMind –por primera vez en un evento público de Google– anunció Project Astra, agente de IA universal que está diseñado para ser "verdaderamente útil en el día a día". Por ahora es un prototipo, pero es un asistente que usando la cámara del móvil puede identificar y dar contexto de lo que está viendo.

Es capaz de recordar qué ha visto y dar contexto de lo que está viendo, incluso resolver problemas. Google integrará algunas de estas funciones en la aplicación de Gemini a finales de año.

De nuevo, y esto fue una constante durante toda la presentación, muchas funciones similares a las posibilidades de GPT-4o.

Por supuesto, Google también mostró los avances en herramientas que compiten con Midjourney, Sora o Suno.

  • Imagen 3 es un nuevo generador de imágenes usando mensajes de texto, disponible en ImageFX para desarrolladores.
  • Veo es un generador de vídeos en 1080p utilizando únicamente promps de texto. Se integra en VideoFX para desarrolladores.
  • Music AI Sandbox, una suite de herramientas de IA para crear música, diseñado para artistas.

Google quiere cambiar la forma en la que buscamos en Google para siempre

El buscador de Google evoluciona. Hace poco que Google integró en Android la función de "rodea para buscar" en los Galaxy S24 y en Pixel, aunque está expandiéndose en más móviles. Pero el cómo vamos a buscar en Google va a cambiar para siempre.

Dentro de poco se podrá realizar búsquedas grabando vídeo y el buscador automáticamente interpretará qué está viendo y el audio, por ejemplo comentando por qué algo no está funcionando como debería.

Google te dará una respuesta resumida basándose en los millones de puntos de información que ha escaneado de webs, ahorrándote un clic, algo que como un medio de información como es Computer Hoy, no sabemos muy bien como tomárnoslo.

Este es, posiblemente, el mejor ejemplo que Google ha mostrado durante todo el Google I/O –o más bien Google I/A– de cómo, aunque puede que con una IA ligeramente inferior a la de OpenAI, al estar integrada en productos que usan millones de personas, es más útil.

Google no lidera en IA, simplemente responde

El miedo de Google a OpenAI es obvio, tanto que incluso contando con los recursos con los que cuenta Google en forma de talento y dinero, la gran mayoría de las novedades presentadas en Google I/O parecen respuestas a OpenAI.

Todo lo que Google ha mostrado durante el Google I/O ha sido impresionante, nadie lo puede poner en duda, pero que Google no sea capaz de superar a OpenAI dice bastante del estado de Google ahora mismo.

Imagen 3 y Veo son respuestas a Midjourney y Sora. Gemini Gems es una respuesta a GPT Store. Astra es muy similar a las posibilidades de GTP-4o con la cámara del móvil. Gemini 1.5 Flash, el modelo más rápido y flexible, es respuesta directa a las actualizaciones de GPT 4.

El problema de Google se llama OpenAI y poco a poco la empresa que lidera Sundar Pichai se ve forzada a invertir más para mantener el ritmo. La buena noticia para Pichai es que OpenAI no tiene servicios que usan 2.000 millones de personas.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial