Logo Computerhoy.com

El peligro de la desinformación y 'fake news': el nuevo riesgo de las IA como ChatGPT o Bard

Peligro de la desinformación y 'fake news': el nuevo riesgo de las IA como ChatGPT o Bard
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

En la actualidad, la inteligencia artificial ha dejado a muchos con la boca abierta. Sin embargo, sus altas capacidades para generar información y que esta acabe en los medios o redes sociales hace peligrar la difusión de noticias falsas o desinformación entre la sociedad.

Las capacidades de la inteligencia artificial han alcanzado un nivel de sofisticación nunca antes visto, lo que ha llevado al desarrollo de potentes chatbots como ChatGPT y Bard

Estas IA, impulsadas por el aprendizaje profundo, han demostrado su capacidad para crear contenido de manera impresionante, desde artículos y ensayos hasta música y poesía. Sin embargo, a medida que estas tecnologías avanzan, surge un peligro bastante preocupante: la propagación de desinformación y noticias falsas o fake news.

La facilidad con la que estas y otras tantas herramientas pueden generar texto de apariencia legítima da lugar a bastantes dudas. La desinformación y las fake news, ya sean creadas por las personas o estos chatbots, representan en general una amenaza seria para la sociedad, ya que rompen la confianza pública en las instituciones y en la propia información compartida en línea.

"La diferencia estriba en que los modelos de IA generativa, podrían incluir sesgos que conduzcan al usuario a la elaboración involuntaria de esos falsos contenidos, con una aparente verosimilitud incontestable. Es decir, en el caso de manipulación informativa humana, el autor actúa de manera consciente. Con la IA, podríamos estar generando auténticos bulos, sin ser conscientes de ello", explica para Computer Hoy Alberto Pascual, Director Ejecutivo de Ingram Micro.

La inteligencia artificial revoluciona el sector del automóvil: "Es nuestra aliada para pasar de una tarea tediosa a una solución"

Aunque las IA generativas como ChatGPT y Bard han sido entrenadas para producir respuestas coherentes y relevantes, también carecen de la capacidad de discernir la veracidad de la información que generan. No pueden evaluar si lo que están diciendo es verdadero o falso, lo que abre la puerta a la propagación de teorías de conspiración, noticias engañosas y contenido manipulado.

"Si bien las IA generativas avisan, en casos como el de ChatGPT, del riesgo de que los datos se encuentren desactualizados -sus fuentes de información llegan hasta 2021-, en el caso de Bard, ofrecen respuestas con información actualizada a fecha de hoy mismo indexada en Google. Ello posibilita el aporte de datos 'de última hora', inmediatos, que dificultan contrastarlos adecuadamente, facilitando la elaboración y difusión de noticias falsas", añade Alberto Pascual.

'Con la IA podríamos estar generando auténticos bulos sin ser conscientes de ello'

"Los jugadores de un conocido videojuego ('World of Warcraft'), sabiendo que un medio especializado sobre este universo publicaba contenidos generados por un chatbot de IA que registraba lo publicado en internet, iniciaron un hilo en el foro de internet Reddit, donde comenzaron a hablar extensamente acerca de “un nuevo contenido aparecido en el videojuego”, que en realidad no existía", ejemplifica con un caso real el experto entrevistado.

"La IA entendió que se trataba de un tema interesante y de tendencia en su comunidad de jugadores, y publicó un artículo basado en información falsa, inventada, sin haber ningún mecanismo de control o verificación. Este caso se pone claramente en tela de juicio la garantía y precisión de los datos ofrecidos por este tipo de modelos, y la importancia del desarrollador, como garante del dato facilitado al usuario", añade.

Uno de los grandes problemas es la naturaleza viral de las redes sociales y la velocidad a la que se comparte la información, que hacen que todo este contenido generado con IA pueda propagarse rápidamente y alcanzar a muchas personas en poco tiempo. 

Esto puede dar lugar a una espiral de desinformación en la que las noticias falsas se hacen cada vez más grandes y se convierten en creencias que se incrustan en las mentes de las personas, incluso cuando se presenta evidencia que dice que es falso.

Que no te la cuelen: trucos para identificar imágenes generadas por inteligencia artificial

La responsabilidad de combatir la desinformación no debe recaer únicamente en los usuarios. A medida que las IA generativas se vuelven más comunes y accesibles, es fundamental que los desarrolladores y las empresas que las crean asuman la responsabilidad de mitigar los riesgos asociados con la desinformación. 

En última instancia, hacer frente al peligro de la desinformación requiere una combinación de esfuerzos, que van desde el diseño y entrenamiento responsable de las IA generativas hasta la educación del público sobre cómo identificar noticias falsas y contenido manipulado. 

"Las soluciones deben ser transparentes y advertir sobre el potencial de generar 'fake news'. Esto ayudará a que las personas sean conscientes de las limitaciones y las posibles implicaciones de la tecnología, activando el espíritu crítico que jamás hemos de abandonar ni delegar", comenta Alberto Pascual.

Usa ChatGPT para mejorar tu escritura: conviértete en el próximo García Márquez gracias a la IA

Cómo puedes evitar caer en noticias falsas generadas por inteligencia artificial

  1. Verifica las fuentes: presta atención a sitios web desconocidos o con reputación dudosa. Opta por fuentes confiables y reconocidas en el campo periodístico o académico.
  2. Confirma la noticia en múltiples fuentes: no te quedes solo con un titular. Busca corroborar la información en diferentes fuentes antes de creer en su veracidad.
  3. Desarrolla pensamiento crítico: sé escéptico y cuestiona cualquier noticia que parezca demasiado impactante o extrema. Si algo suena demasiado bueno o demasiado malo para ser verdad, podría ser una señal de alerta.
  4. No te dejes llevar por las emociones: las noticias falsas a menudo buscan provocar emociones intensas. Antes de compartir o reaccionar, tómate un momento para verificar la información.
  5. Evita compartir sin verificar: si tienes dudas sobre la veracidad de una noticia, es mejor no compartirla hasta que hayas confirmado su autenticidad.
  6. Mantente actualizado sobre la IA generativa: a medida que la tecnología avanza, es importante estar informado sobre las capacidades y limitaciones de las IA generativas para comprender mejor cómo pueden ser utilizadas para crear contenido engañoso.
¿Cuáles son los límites de la inteligencia artificial? Lo que aún no puede hacer

La lucha contra la desinformación es un desafío continuo, y a medida que la tecnología avanza, también lo hacen las tácticas utilizadas para difundir información falsa. Sin embargo, al ser conscientes del potencial riesgo de las IA generativas y trabajar juntos para abordar este problema, se puede construir una sociedad más informada y resistente a la manipulación. 

La clave está en encontrar el equilibrio adecuado entre el aprovechamiento de la potencia de la inteligencia artificial y la protección contra la desinformación para garantizar un futuro digital más seguro y sobre todo confiable.

"Internet abrió una gran ventana y esperanza a la libertad de expresión, en un mundo en el que la manipulación e intervención que sufrían los grandes medios de comunicación de masas, alcanzaba cotas preocupantes. Sin embargo, la difusión de bulos a través de ese espacio de libertad que es la Red, dinamita su credibilidad, cuestionando la veracidad de todo. El riesgo que supone para la democracia es enorme y, los que hemos adquirido un rol protagonista en el entorno tecnológico, hemos de responsabilizarnos de su erradicación", finaliza el experto.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.