Logo Computerhoy.com

El exjefe de seguridad de Google alerta de los peligros de la IA y la generación de noticias falsas

El exjefe de seguridad de Google alerta de los peligros de la IA y la generación de noticias falsas
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Arjun Narayan ha concedido una muy interesante entrevista a Gizmodo en la que ha expuesto los grandes peligros a los que el periodismo y la sociedad se enfrentan en la actualidad debido al 'boom' de la IA: la generación de noticias falsas o 'fake news'.

ChatGPT es para todos una herramienta nueva y poderosa que tiene el potencial de hacer mucho bien en casi todos los sectores, pero también hay desventajas. Entre ellos, herramientas de inteligencia artificial como esta podrán producir, casi de forma ilimitada todo tipo de opiniones de cualquier tema que les preguntes.

El problema de base es que esta información, que a menudo ha demostrado ser inexacta, también podría tener consecuencias peligrosas para la difusión de fake news o noticias falsas online.

Por supuesto, esto no solo se queda en un texto con información falsa y la desinformación puede tener consecuencias muy graves como influir en la opinión pública. Con la capacidad de generar grandes cantidades de texto de manera rápida y muy convincente, las herramientas de IA generativa como ChatGPT se pueden usar para difundir fake news a gran escala.

Y aquí es donde el exjefe de departamento de seguridad de Google, Arjun Narayan, ha querido poner el foco en una entrevista reciente con Gizmodo. Hablaron sobre la complejidad del momento actual, cómo las organizaciones de noticias deben abordar el contenido de IA de manera que pueda generar y nutrir la confianza de los lectores, y qué esperar en el futuro cercano.

"Es importante ser transparente para el usuario de que este contenido fue generado por IA"

"Uno de los grandes retos se centra en asegurarse de que los sistemas de IA se entrenen correctamente y se entrenen con la verdad básica correcta. Es extremadamente importante calibrar y curar cuidadosamente cualquier punto de datos que ingrese para entrenar el sistema de IA", explica.

En pocas palabras, ChatGPT se basa en un modelo que responde en función de probabilidades. Por ejemplo, si le preguntas en qué día de la semana te encuentras, una respuesta que incluya de Lunes a Viernes es más probable que un día del mes, aunque esto no significa que responda correctamente con el día en el que te encuentras.

Fatiga informativa: coronavirus, criptomonedas y ahora ¿la inteligencia artificial y ChatGPT?

Teniendo esto en cuenta, en la explicación de un concepto que le solicitas a este chatbot este irá construyendo una respuesta, palabra por palabra, con probabilidades y, por lo tanto, esto puede dar a error. Si esto es usado para escribir noticias, hay un gran problema.

"Es importante comprender que puede ser difícil detectar qué historias están escritas completamente por IA y cuáles no, pero esa distinción se está desvaneciendo", explica Narayan.

"Personalmente, creo que no hay nada de malo en que la IA genere un artículo, pero es importante ser transparente para el usuario de que este contenido fue generado por IA. Es importante para nosotros indicar, ya sea en una línea de autor o en una divulgación, que el contenido fue generado total o parcialmente por IA. Siempre y cuando cumpla con su estándar de calidad o estándar editorial, ¿por qué no?", añade.

"Necesitamos más personas que estén pensando en estos pasos y que le den el espacio de cabeza dedicado para mitigar los riesgos. De lo contrario, la sociedad tal como la conocemos, el mundo libre tal como lo conocemos, correrá un riesgo considerable. Sinceramente, creo que debe haber más inversión en confianza y seguridad", finaliza.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.