Logo Computerhoy.com

Los medios contra la IA: New York Times prohíbe el uso de su contenido para entrenar a ChatGPT

New York Times ChatGPT
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

The New York Times es de los primeros en dar un paso al frente y prohibir de forma explícita en sus Términos de servicio el uso de su contenido para entrenar herramientas basadas en inteligencia artificial.

El prestigioso medio The New York Times ha adoptado una medida preventiva para frenar el uso no autorizado de su contenido para el entrenamiento de sistemas de inteligencia artificial como ChatGPT, entre otros. 

La actualización de sus Términos de servicio, realizada el 3 de agosto, prohíbe explícitamente la utilización de cualquier componente de su contenido, incluidos texto, imágenes, metadatos y más, para el desarrollo de programas de IA o aprendizaje automático. 

Además, la publicación ha reforzado la restricción del uso de herramientas automatizadas, como rastreadores de sitios web, que accedan o recopilen dicho contenido sin previa autorización por escrito.

Todo esto nace —y por contextualizar— de la reciente noticia y lanzamiento de GPTBot, el nuevo sistema de OpenAI que se centra en rastrear Internet para entrenar y mejorar las capacidades de sus modelos de inteligencia artificial

New York Times IA

New York Times

En concreto, la herramienta evitará acceder a fuentes que requieran suscripciones de pago, aquellas que recopilen información personal identificable (PII) o contengan contenido que vaya en contra de las políticas de OpenAI, tal y como explicó en su blog, pero el resto será de libre acceso.

Sin embargo, esto ha hecho saltar todo tipo de alarmas entre la comunidad tecnológica. Esta novedad de OpenAI obliga a que sean los propietarios de las webs los que deben prohibir el uso de su contenido para el entrenamiento de la inteligencia artificial en lugar de ser la empresa la que los solicite.

Una de las principales quejas radica en el hecho de que GPTBot tenga la capacidad de acceder a una gran parte de Internet para recopilar datos. Aunque la intención detrás de esta función es mejorar los modelos de IA y enriquecer su entrenamiento, esto plantea enormes dudas de privacidad y seguridad. 

Existe el riesgo de que GPTBot recopile información que, pese a no ser confidencial, es privada y sensible y todo sin el consentimiento del o los creadores. 

Teniendo en cuenta que no accederá a información bajo muro de pago o texto que incluya datos privados, GPTBot sí que podrá acceder a una variedad de contenido, incluyendo imágenes, vídeos, música y otros medios, algunos de los cuales pueden estar protegidos por derechos de autor.

NYT contra ChatGPT y el resto de herramientas basadas en IA

No obstante, es importante señalar que el NYT también firmó un acuerdo de colaboración de 100 millones dólares con Google en febrero, lo que sugiere ciertas dudas entre las restricciones implementadas y la relación con el gigante tecnológico que, si lo recuerdas, ha desarrollado Bard, el gran competidor de ChatGPT. 

Aunque el diario no ha realizado cambios en su archivo robots.txt, que informa a los rastreadores de motores de búsqueda qué URL son de libre acceso, estas modificaciones en los Términos de servicio nacen con el principal objetivo de proteger la totalidad su contenido de los avances en IA de otras compañías.

Contraseñas e inteligencia artificial: un arma de doble cara que pone en peligro tu seguridad

Dejando esto a un lado, el NYT no es el único en tomar medidas frente a la extracción de contenido para entrenamiento de IA. Microsoft ha añadido restricciones a su propio T&C, prohibiendo el uso de sus productos de IA para crear, entrenar o mejorar otros servicios de inteligencia artificial.

La discusión sobre la extracción de datos para el entrenamiento de IA también ha llevado a organizaciones de noticias a alzar la voz. The Associated Press y el Consejo Europeo de Editores han instado a legisladores a introducir reglas de transparencia y consentimiento antes de utilizar datos para entrenamientos. 

La postura actual del New York Times, en medio de toda esta locura por la inteligencia artificial y los chatbots, no hace más que acrecentar y poner sobre la mesa la necesidad cada vez mayor de proteger los derechos de autor y la privacidad a la vez que se realizan grandes avances en este campo.

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.