Logo Computerhoy.com

Google ya no se esconde: todo lo que publiques podrá ser utilizado por su inteligencia artificial

Una inteligencia artificial

Getty

Google admite que Bard y Cloud AI utilizarán los datos recopilados en Internet para su entrenamiento. El tratamiento de la información en la red para el "enseñar" a las inteligencias artificiales puede suponer graves problemas.

En una controvertida actualización de su política de privacidad, Google ha anunciado que toda la información que se publique en su plataforma podrá ser utilizada por su inteligencia artificial (IA). Esta decisión marca un antes y un después en el manejo de los datos de los usuarios.

Hasta ahora, Google especificaba que los datos recopilados de las personas se empleaban para entrenar modelos lingüísticos, refiriéndose explícitamente a Google Translate. Sin embargo, la nueva versión de la política expande el alcance a modelos de inteligencia artificial, citando a Google Bard y Cloud AI, según informa Techspot

Paginas amarillas

La principal crítica a sistemas de IA generativa como Bard y ChatGPT reside en cómo extraen y emplean los datos. Aunque se trate de información pública, existen riesgos de plagio y privacidad, además de la posibilidad de que la IA malinterprete los contenidos o aporte respuestas desfasadas

En este sentido, Google ya habría alertado a sus empleados sobre la cautela necesaria al usar chatbots como Bard, ya que podrían sugerir código indeseable. La legalidad de este tipo de extracción de datos también está en el punto de mira.

Así, el pasado abril, Elon Musk amenazaba con demandar a Microsoft por utilizar datos de Twitter para entrenar su IA, algo que después plantearía hacer él mismo. Además, Reddit denunciaba que estaba siendo utilizada en el entrenamiento  y llegaban las primeras demandas por difamación

Por su parte, Samsung, Apple, JPMorgan Chase o Accenture bloqueaban el uso de ChatGPT en sus entornos laborales a causa de riesgo de filtración de información confidencial de manera no deliberada.

Sin embargo, ahora Google considera que puede leer tus palabras, asume que pertenecen a su empresa y puede emplearlas para entrenar un chatbot.Google utiliza la información para mejorar nuestros servicios y desarrollar nuevos productos, funciones y tecnologías que beneficien a nuestros usuarios y al público en general”, dice la nueva política de Google.

Sesgo, fiabilidad de los datos y problemas legales

Lejos de ser anecdótico la interacción entre diferentes inteligencias artificiales con datos falsos  puede tener implicaciones graves en diversas áreas donde se utiliza la IA, como la medicina, el transporte autónomo o la toma de decisiones empresariales, mucho más teniendo en cuenta el coste del entrenamiento y uso y que no usamos las inteligencias artificiales más desarrolladas.

Las conocidas como alucinaciones de IA pueden tomar muchas formas diferentes, desde la creación de noticias falsas hasta afirmaciones o documentos falsos sobre personas, eventos o hechos científicos. Además, el sesgo en el entrenamiento es un problema ya conocido.

San Altman, en Madrid: 'la inteligencia artificial es tan peligrosa como las armas nucleares'

Recientemente, OpenAI, creador de ChatGPT, se enfrenta a una demanda que representa a más de 100.000 personas,  por violación de la privacidad y los derechos de autor de los usuarios al usar sus datos personales.

La regulación sobre los datos y como se utilizan en la actualidad, avanza, y la medida de Google de incluir su uso como parte del entrenamiento de sus inteligencias artificiales supone un paso polémico que sin duda la UE revisará.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.