Logo Computerhoy.com

Un estudio revela la preocupante capacidad de la IA para la propagación de noticias falsas

Un estudio revela el preocupante impacto de IA en la propagación de desinformación
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Un nuevo estudio revela que algunos sistemas impulsados por IA podrían ser explotados para generar campañas masivas de desinformación en una variedad de temas bastante peligrosos.

Un reciente estudio realizado por un equipo de investigadores de la Universidad de Zúrich ha hecho foco en analizar las capacidades de los modelos de inteligencia artificial, centrándose específicamente en GPT-3 de OpenAI —lanzado en 2020—, para evaluar tanto sus riesgos como beneficios en lo que respecta a la generación y propagación de desinformación.

Mencionar que este modelo de lenguaje nutre en cierta forma el ChatGPT que muchos usan en la actualidad, aunque matizar que usa una versión mejorada con nombre GPT 3.5.

Volviendo a la investigación han contado con la participación de 697 personas, con el propósito de determinar si son capaces de distinguir entre la desinformación y la información precisa cuando se les presenta en forma de tuits.

Asimismo, han buscado establecer si los participantes pueden discernir si un tuit fue redactado por un usuario de Twitter o por GPT-3. Los temas abordados en este estudio incluyeron el cambio climático, la seguridad de las vacunas, la pandemia, la teoría de la Tierra plana y los tratamientos homeopáticos para el cáncer, temas clave en el campo de la desinformación.

Un gran problema de la IA que debe ser atacado con rapidez

En cuanto a los resultados obtenidos, se encontró que GPT-3 posee la capacidad de generar información precisa y, en comparación con los tuits de usuarios reales de Twitter, presenta información más comprensible. 

Sin embargo, se descubrió también que este modelo de lenguaje de IA tiene una habilidad inquietante para generar desinformación altamente convincente. Los participantes no lograron diferenciar entre los tuits creados por GPT-3 y aquellos escritos por usuarios reales de Twitter.

Que no te la cuelen: trucos para identificar imágenes generadas por inteligencia artificial

"Nuestro estudio revela el poder de la IA tanto para informar como para engañar, lo que plantea preguntas críticas sobre el futuro de los ecosistemas de información", explica Federico Germani, uno de los investigadores al cargo de la investigación.

Con todo esto se plantean serias preocupaciones en relación a la posibilidad de que las campañas de desinformación generadas por GPT-3 puedan resultar sumamente efectivas en situaciones de crisis de salud pública como los momentos que se vivieron con la pandemia que requieren una comunicación rápida y clara hacia el público. 

'Prompt engineer': el trabajo de los ingenieros del lenguaje en la era de la inteligencia artificial

"Los hallazgos subrayan la importancia crítica de la regulación proactiva para mitigar el daño potencial causado por las campañas de desinformación impulsadas por IA", dice Nikola Biller-Andorno, otro de los investigadores. 

"Reconocer los riesgos asociados con la desinformación generada por IA es crucial para salvaguardar la salud pública y mantener un ecosistema de información sólido y confiable en la era digital", añade.

Comentan que es crucial que se implementen regulaciones de forma inmediata. A medida que el impacto de la IA en la generación y evaluación de información se convierte en algo normal, los investigadores hacen un llamado a los responsables políticos para que implementen regulaciones con el fin de abordar las posibles amenazas planteadas.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.