Un estudio revela la preocupante capacidad de la IA para la propagación de noticias falsas
Un nuevo estudio revela que algunos sistemas impulsados por IA podrían ser explotados para generar campañas masivas de desinformación en una variedad de temas bastante peligrosos.
Un reciente estudio realizado por un equipo de investigadores de la Universidad de Zúrich ha hecho foco en analizar las capacidades de los modelos de inteligencia artificial, centrándose específicamente en GPT-3 de OpenAI —lanzado en 2020—, para evaluar tanto sus riesgos como beneficios en lo que respecta a la generación y propagación de desinformación.
Mencionar que este modelo de lenguaje nutre en cierta forma el ChatGPT que muchos usan en la actualidad, aunque matizar que usa una versión mejorada con nombre GPT 3.5.
Volviendo a la investigación han contado con la participación de 697 personas, con el propósito de determinar si son capaces de distinguir entre la desinformación y la información precisa cuando se les presenta en forma de tuits.
Asimismo, han buscado establecer si los participantes pueden discernir si un tuit fue redactado por un usuario de Twitter o por GPT-3. Los temas abordados en este estudio incluyeron el cambio climático, la seguridad de las vacunas, la pandemia, la teoría de la Tierra plana y los tratamientos homeopáticos para el cáncer, temas clave en el campo de la desinformación.
Un gran problema de la IA que debe ser atacado con rapidez
En cuanto a los resultados obtenidos, se encontró que GPT-3 posee la capacidad de generar información precisa y, en comparación con los tuits de usuarios reales de Twitter, presenta información más comprensible.
Sin embargo, se descubrió también que este modelo de lenguaje de IA tiene una habilidad inquietante para generar desinformación altamente convincente. Los participantes no lograron diferenciar entre los tuits creados por GPT-3 y aquellos escritos por usuarios reales de Twitter.
"Nuestro estudio revela el poder de la IA tanto para informar como para engañar, lo que plantea preguntas críticas sobre el futuro de los ecosistemas de información", explica Federico Germani, uno de los investigadores al cargo de la investigación.
Con todo esto se plantean serias preocupaciones en relación a la posibilidad de que las campañas de desinformación generadas por GPT-3 puedan resultar sumamente efectivas en situaciones de crisis de salud pública como los momentos que se vivieron con la pandemia que requieren una comunicación rápida y clara hacia el público.
"Los hallazgos subrayan la importancia crítica de la regulación proactiva para mitigar el daño potencial causado por las campañas de desinformación impulsadas por IA", dice Nikola Biller-Andorno, otro de los investigadores.
"Reconocer los riesgos asociados con la desinformación generada por IA es crucial para salvaguardar la salud pública y mantener un ecosistema de información sólido y confiable en la era digital", añade.
Comentan que es crucial que se implementen regulaciones de forma inmediata. A medida que el impacto de la IA en la generación y evaluación de información se convierte en algo normal, los investigadores hacen un llamado a los responsables políticos para que implementen regulaciones con el fin de abordar las posibles amenazas planteadas.
Redactora de Tecnología
Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.
Otros artículos interesantes:
- ChatGPT vs. ChatGPT Plus: estas son las diferencias entre la versión gratuita y de pago
- ChatGPT y el futuro del periodismo: amigo o enemigo, ¿está en peligro el oficio de periodista?
- Mac Washing Machine X9, la herramienta ideal para eliminar duplicados y limpiar tu Mac
Conoce cómo trabajamos en Computerhoy.