Logo Computerhoy.com

Google se queja de que la gente hace preguntas trampa a la IA de su buscador, ¿qué esperaba?

Foto del redactor Juan Antonio Pascual Estapé

Redactor Colaborador

Google se queja de que la gente va a pillar a la IA de su buscador, ¿qué esperaba?

DepositPhotos / Imagen generada por IA

Foto del redactor Juan Antonio Pascual Estapé

Redactor Colaborador

Al parecer los usuarios están haciendo preguntas tan capciosas a la IA del buscador de Google, que falla. ¿De quién es la culpa?

Liz Reid, jefa de contenidos de Google Search, ha explicado en el blog de Google los fallos de la nueva IA que han integrado en el buscador de Google. Una explicación con posos de pataleta y reprimenda a los usuarios. Pero eso sí, ni rastro de una disculpa por los errores de la IA.

Google ha estrenado en Estados Unidos una nueva función de IA para el buscador de Google, llamada IA Overviews. Cuando haces una búsqueda, aparece un resumen de contenido con enlaces que la IA considera importantes. Aunque no lo hayas pedido, y tú solo quieres una lista de webs...

El problema es que estos IA Overviews han recomendado cosas como comer una piedra al día para cuidar la salud, o usar pegamento como ingrediente para una pizza. Google ha intentado explicar por qué ha ocurrido.

Los errores de la IA del buscador de Google

Liz Reid comenta en el blog de Google, que esta inteligencia artificial generativa no funciona igual que ChatGPT y similares. No genera contenido partiendo de una pregunta, sino que además del propio entrenamiento, usa el ranking de búsqueda de Google para generar los resultados.

Por tanto, esta IA no suele producir "alucinaciones". Si crea una mala respuesta es porque malinterpreta las consultas, malinterpreta un matiz del lenguaje en la web, o no dispone de mucha información de calidad.

Liz Reid asegura que muchos de los supuestos fallos que se han hecho virales, en realidad son falsificaciones de los usuarios, no son respuestas reales de su IA.

Las cinco cosas más estúpidas y peligrosas que recomienda la IA del buscador de Google

También se queja, de forma un poco inocente, de que la gente pregunta cosas muy raras, para pillar a la IA. Por ejemplo, la respuesta en la que la IA del buscador de Google recomienda comer una piedra al día, viene de la pregunta: "¿Cuántas piedras hay que comer al día?".

Puede que la pregunta sea para pillar a la IA, pero eso no excusa una mala respuesta. La IA debe tener unos mecanismos para darse cuenta de que la respuesta que ha creado es errónea, e incluso peligrosa para la salud. La excusa de que los usuarios deben hacer las preguntas correctas para que la IA funcione, es muy pobre.

Al menos Liz Reid reconoce que la mayoría de los problemas provienen de que para el entrenamiento han usado webs humorísticas como The Onion, y mensajes de Reddit sarcásticos e irónicos. La IA no distingue bien cuándo esa información va en serio, o es una broma.

Gemini, ChatGPT, Grok… ¿por qué las inteligencias artificiales más famosas tienen los nombres que tienen?

Para corregir estos problemas, Google ha hecho una serie de cambios en la IA. Han limitado las fuentes humorísticas, han aumentado los chequeos para verificar que la respuesta es útil, y la IA no hace resúmenes cuando se trata de temas delicados o de salud.

Son correcciones bienvenidas, pero también demuestran que la IA tenía fallos. El problema de fondo es que Google usa una inteligencia artificial a medio terminar como el eje central de las búsquedas, colocándola en primer plano. La carrera por dominar el mercado de la IA, lleva a este tipo de precipitaciones.

Conoce cómo trabajamos en Computerhoy.

Etiquetas: Inteligencia artificial, buscadores