Logo Computerhoy.com

ChatGPT cada vez más cerca de estar prohibido en la UE: Alemania se une a España e Italia e investigará el uso de datos de OpenAI

Alemania se une a España e Italia, investigarán el uso que hace OpenAI de los datos de los usuarios y puede que esto no sea algo que le convenga a la empresa detrás de ChatGPT.

Qué es y cómo funciona AutoGPT, la peligrosa IA que deja obsoleto al propio ChatGPT
Foto del redactor Ilan K. Cherre

Las autoridades alemanas han iniciado una investigación de protección de datos sobre el popular modelo de lenguaje ChatGPT. La investigación surge ante la preocupación de que la plataforma pueda estar violando las leyes de privacidad de datos al recopilar información personal sin el consentimiento del usuario.

ChatGPT es un modelo de lenguaje grande creado por OpenAI, basado en la arquitectura GPT-4. Se utiliza ampliamente en una variedad de aplicaciones, incluyendo chatbots, traducción de idiomas y creación de contenido.

Sin embargo, la plataforma ha sido objeto de escrutinio recientemente por sus prácticas de recopilación de datos. Las autoridades alemanas están particularmente preocupadas de que ChatGPT pueda estar recopilando información personal de los usuarios sin su conocimiento o consentimiento, en violación del Reglamento General de Protección de Datos (RGPD) de la Unión Europea.

Según el RGPD, las empresas deben obtener el consentimiento explícito de los usuarios antes de recopilar y procesar sus datos personales. También deben proporcionar a los usuarios información clara y concisa sobre los tipos de datos que están recopilando, cómo se utilizarán y con quién se compartirán.

Alemania se suma a Italia y España: ChatGPT y OpenAI serán investigados para conocer cómo recopilan datos

La investigación alemana se centrará en si ChatGPT cumple con estos requisitos. Si se encuentra que viola el RGPD, la plataforma podría enfrentar multas significativas y otras sanciones. La investigación forma parte de una campaña más amplia, siendo Italia una de las pioneras en poner sobre la mesa esta posible problemática.

A medida que las empresas de tecnología continúan recopilando cantidades cada vez mayores de datos personales, los gobiernos y los reguladores están intensificando sus esfuerzos para asegurarse de que estas empresas cumplan con las reglas. De hecho, este es uno de los principales problemas que no hay filtros de acceso a ChatGPT.

Para los usuarios de ChatGPT y otras plataformas similares, la investigación sirve como recordatorio de la importancia de la privacidad de datos. Es esencial que los usuarios comprendan cómo se están recopilando, utilizando y compartiendo sus datos, y que tengan control sobre esos datos.

A medida que la investigación avanza, será interesante ver cómo impacta en ChatGPT y otros modelos de lenguaje. ¿Conducirá a regulaciones más estrictas de privacidad de datos para estas plataformas? Puede que la actuación de los diferentes países sea una medida de prevención para controlar los datos que recopila OpenAI.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial