Logo Computerhoy.com

Las "alucinaciones", el gran error y potencial peligro de la inteligencia artificial

La "alucinación" de la inteligencia artificial, el gran error y potencial peligro de esta tecnología
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Las alucinaciones en la inteligencia artificial están planteando grandes y numerosos riesgos debido a la generación de información o imágenes que no se basan en datos reales. Parece que se ha convertido en el nuevo enemigo a batir.

La inteligencia artificial ha logrado avances considerables en los últimos años, volviéndose más competente en actividades que antes solo realizaban los humanos. Sin embargo, la alucinación es un problema que se ha convertido en un gran obstáculo para la IA. 

Para contextualizar, esto no difiere de lo que significa en sí este término. Este fenómeno se usa para describir una situación en la que la IA crea resultados que no son reales, no coinciden con ningún dato con el que se haya entrenado o no siguen ningún otro patrón. Es como si se convirtiese en futuróloga cuando su uso debe basarse en hechos reales y contrastados.

Los desarrolladores han advertido contra los modelos y herramienta de IA que producen hechos totalmente falsos y responden a las preguntas con respuestas inventadas como si fueran verdad. Como puede poner en peligro la precisión, la fiabilidad y la confiabilidad de las aplicaciones, la alucinación es una barrera importante para el desarrollo y la implementación de sistemas de IA.

“Las alucinaciones son más comunes en modelos de IA generativa que han sido entrenados en grandes cantidades de datos y tienen la capacidad de generar contenido nuevo o imaginado. También influye la falta de supervisión adecuada durante el entrenamiento”, explica para Computer Hoy Félix Llorente García, SAP Project Manager. Como resultado, quienes trabajan en IA buscan activamente soluciones a este problema.

Alucinaciones en inteligencia artificial: un tema peliagudo

Las alucinaciones de IA pueden tomar muchas formas diferentes, desde la creación de noticias falsas hasta afirmaciones o documentos falsos sobre personas, eventos o hechos científicos. 

Por ejemplo, ChatGPT puede crear una figura histórica con una biografía completa y logros que nunca fueron reales. El problema es que en la era actual donde un solo tuit puede llegar a millones de personas en segundos, la posibilidad de que esta información incorrecta se propague genera grandes dificultades.

verticalImage1685105811739

Sin embargo —y pese a que es un gran problema— hay otros sectores en los que interviene o se prevé que intervenga la IA que resultan aún más peligrosos. "Una IA que interpreta los resultados de una resonancia magnética de manera incorrecta debido a una alucinación podría llevar a un diagnóstico falso y a un tratamiento inadecuado para el paciente, poniendo en peligro su salud", explica Félix Llorente.

Por otro lado, si una IA que participa en los vehículos autónomos alucina y percibe objetos inexistentes en la carretera, como un peatón o un obstáculo, podría provocar maniobras bruscas o frenazos de repente, causando posibles accidentes de tráfico y poniendo en riesgo la vida de muchas personas.

Inteligencia Artificial

Finalmente y por terminar con los ejemplos está su uso en la ciberseguridad. Si una herramienta basada en inteligencia artificial falla por este motivo y percibe amenazas que son falsas, generaría una alarma general que conduce a respuestas innecesarias y costosas.

Por ejemplo, un caso más o menos reciente hace referencia a la Super Bowl de febrero. Associated Press preguntó a Bing por el acontecimiento deportivo más importante de las últimas 24 horas, con la esperanza de que dijera algo sobre la estrella del baloncesto LeBron James.

Sin embargo, nada más lejos de la realidad. En lugar de eso, se limitó a dar una información falsa pero detallada sobre la próxima Super Bowl, días antes de que se celebrase. "Fue un partido emocionante entre los Philadelphia Eagles y los Kansas City Chiefs, dos de los mejores equipos de la NFL esta temporada", dijo Bing.

"Para solucionar este problema, es importante implementar técnicas de supervisión y evaluación más rigurosas durante el entrenamiento de la IA. Esto supone utilizar conjuntos de datos más diversos y representativos y sobre todo eliminar sesgos y prejuicios presentes en los datos. Además, se deben establecer mecanismos de control para detectar y corregir alucinaciones durante su funcionamiento", añade Félix Llorente.

Algo que también se busca aunque resulta algo más complejo es que se fomente la transparencia en los sistemas de IA, permitiendo que los usuarios comprendan cómo se toman las decisiones y se generan los resultados. El problema es que muchas empresas son muy cautas a la hora de revelar información sobre cómo han entrenado sus modelos o su arquitectura —caja negra—.

"Un pequeño consejo para abordar las alucinaciones en la IA es implementar una técnica conocida como "generación condicionada". Esta técnica consiste en proporcionar información adicional o restricciones específicas al generar contenido. Al condicionar la generación de datos o imágenes a ciertos criterios o contextos específicos, se puede reducir la probabilidad de que la IA genere alucinaciones", finaliza el experto entrevistado.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.