Logo Computerhoy.com

Los expertos advierten: el gran problema de ChatGPT y otros chatbots no se solucionará jamás

Alucinaciones ChatGPT y otros chatbots

Getty

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Las alucinaciones se presentan como el gran problema de los chatbots más famosos como ChatGPT, Bard o Bing. El gran hándicap que ahora se suma es que los expertos advierten de que esto tiene una muy difícil solución —por no decir imposible—.

Las alucinaciones de la IA, como las que presentan OpenAI y su ChatGPT, Google Bard y Bing de Microsoft, son el gran problema de estos chatbots y, según comentan algunos expertos, con una difícil solución.

En el contexto de la inteligencia artificial, una "alucinación" se refiere a un fenómeno en el que un modelo de IA, como un modelo de lenguaje grande (LLM) o un chatbot, genera información que no es precisa ni basada en datos reales. Estas alucinaciones pueden hacer que el modelo produzca contenido que parezca humano y convincente, pero que en realidad carece de un significado o contexto real.

Las alucinaciones de IA pueden tomar muchas formas diferentes, desde la creación de noticias falsas hasta afirmaciones o documentos falsos sobre personas, eventos o hechos científicos. 

Por ejemplo, ChatGPT puede crear una figura histórica con una biografía completa y logros que nunca fueron reales. El problema es que en la era actual, donde un solo tuit puede llegar a millones de personas en segundos, la posibilidad de que esta información incorrecta se propague genera grandes dificultades.

La inteligencia artificial revoluciona el sector del automóvil: "Es nuestra aliada para pasar de una tarea tediosa a una solución"

Por otro lado, si una herramienta basada en inteligencia artificial falla por este motivo y percibe amenazas que son falsas, generaría una alarma general que conduce a respuestas innecesarias y costosas.

"Esto no se puede arreglar", explica Emily Bender, profesora del Laboratorio de Lingüística Computacional de la Universidad de Washington. "Es inherente a la falta de coincidencia entre la tecnología y los casos de uso propuestos".

'Las alucinaciones son en realidad una ventaja adicional'

Aunque en algunos casos, las alucinaciones de la IA pueden ser beneficiosas, como en la generación de imágenes sorprendentes en DALL-E o Midjourney, el problema persiste cuando se trata de la generación de texto, especialmente en el ámbito de las noticias, donde la precisión es crucial.

Los modelos de lenguaje grande como GPT-4 que potencia a ChatGPT están diseñados para inventar cosas, lo que significa que pueden producir información falsa interpretada como correcta de manera ocasional. Aunque se pueden ajustar para mejorar su precisión, siempre existirá el riesgo de fallos, especialmente en los casos más sutiles y difíciles de detectar por humanos.

¿Cuáles son los límites de la inteligencia artificial? Lo que aún no puede hacer

"Los LLM están diseñados para inventar cosas. Eso es todo lo que hacen", añade la profesora. "Pero dado que solo inventan cosas, cuando el texto que han extraído resulta interpretable como algo que consideramos correcto, eso es por casualidad. Incluso si se pueden ajustar para que sean correctos la mayor parte del tiempo, seguirán teniendo modos de falla, y es probable que las fallas se den en los casos en los que es más difícil que una persona que lee el texto se dé cuenta, porque son más oscuros", comenta.

Algo que también se busca —aunque resulta algo más complejo— es que se fomente la transparencia en los sistemas de IA, permitiendo que los usuarios comprendan cómo se toman las decisiones y se generan los resultados. El problema es que muchas empresas son muy cautas a la hora de revelar información sobre cómo han entrenado sus modelos o su arquitecturacaja negra—.

Aunque los desarrolladores pueden ajustar y mejorar estos modelos para minimizar las alucinaciones, es probable que siempre exista un riesgo inherente de que el modelo produzca información inexacta o engañosa. Por lo tanto, es esencial utilizar estos sistemas de manera cuidadosa y consciente de sus limitaciones para evitar problemas y asegurar la precisión y responsabilidad en su uso.

"Un pequeño consejo para abordar las alucinaciones en la IA es implementar una técnica conocida como "generación condicionada". Esta técnica consiste en proporcionar información adicional o restricciones específicas al generar contenido. Al condicionar la generación de datos o imágenes a ciertos criterios o contextos específicos, se puede reducir la probabilidad de que la IA genere alucinaciones", explica un experto a Computer Hoy.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.