Logo Computerhoy.com

Nunca compartas con ChatGPT los siguientes 5 datos personales

Nunca compartas con ChatGPT los siguientes 5 datos personales
Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Pese a todo su potencial, hay ciertos datos personales que mejor que se queden contigo y que bajo ninguna condición deberías compartir en una conversación con ChatGPT.

Aunque su uso es masivo e innegablemente sus beneficios superan a sus desventajas, es importante tener en cuenta qué tipo de información personal compartes online y con qué la compartes, como en este caso ChatGPT.

En el caso de los chatbots como este es realmente importante y no pararemos de repetir que hay que ser consciente de los datos que se proporcionan y evitar compartir información confidencial que pueda identificarte. 

Aunque OpenAI ha implementado funciones de seguridad en ChatGPT, debes tener en cuenta que la configuración de privacidad no es suficiente para garantizar la completa protección de tus datos más íntimos. Existe la posibilidad de que un error afecte su efectividad o que estos sean vulnerables a ciberataques.

Por ejemplo, ciberdelincuentes atacaron OpenAI y la empresa sufrió una violación de datos a principios de mayo y en junio se descubrió que más de 100.000 cuentas de ChatGPT hackeadas se estaban vendiendo en la Dark Web. En este sentido, es fundamental tener en cuenta algunos datos personales que no deberías compartir en una conversación con ChatGPT.

5 datos personales que jamás debes compartir con ChatGPT

Información privada de tu vida

Debes guardar a muy buen recaudo información como tu nombre completo, dirección, fecha de nacimiento y incluso tu número de seguro social, ya que son datos altamente sensibles que podrían ser utilizados de manera maliciosa si llegaran a manos equivocadas. 

También es importante tener en cuenta que ChatGPT se utiliza para entrenar la inteligencia artificial, lo que implica que estos datos podrían ser utilizados con ese propósito y seguro que no te apetece que anden circulando por ahí.

Las 7 cosas más bizarras que la gente ha creado con ChatGPT

Nombres de usuario y contraseñas

Uno de los datos más buscados por los ciberdelincuentes en las violaciones de datos son los nombres de usuario y las contraseñas. Estas credenciales como ya sabes abren todo tipos de puertas, especialmente si se reutilizan en varios sitios.

Aunque es tentador confiar en ChatGPT no es recomendable compartir tus inicios de sesión con la inteligencia artificial. No tiene sentido hacerlo y puede poner en riesgo la seguridad de tus cuentas.

Microsoft anuncia el Copiloto de Windows: integra su IA tipo ChatGPT en Windows 11, y Bing en el propio ChatGPT

Información financiera

La verdad es que no existe motivo alguno para proporcionar información bancaria personal a ChatGPT, pero aún así parece que algunos usuarios lo hacen. OpenAI nunca necesitará números de tarjetas de crédito ni detalles de cuentas bancarias y ChatGPT no puede hacer nada con esos datos, así que por qué compartirlos. 

La divulgación de este tipo de información tan sensible puede tener graves consecuencias para ti. Importante que tengas en cuenta que si una aplicación que se hace pasar por ChatGPT te solicita información financiera, es una señal de alerta de que podrías estar tratando con malware. Bajo ninguna circunstancia debes proporcionar esos datos.

Secretos de trabajo

Es fundamental mantener bajo llave los secretos de tu trabajo como la propia palabra lo indica, en secreto. Ya han ocurrido incidentes en los que información confidencial se ha cargado en ChatGPT, lo cual es muy preocupante porque no resulta para nada útil.

Varias empresas, como Samsung y Apple, han impuesto restricciones a los bots generativos de IA debido a la sensibilidad de los datos. Si necesitas ayuda de ChatGPT en tu trabajo, es importante encontrar formas creativas de obtenerla sin revelar información confidencial.

ChatGPT opina de los mejores y peores lugares de España para ir de vacaciones este verano

Información de tu salud

Compartir datos de salud detallados con chatbots puede ser realmente una equivocación. Si bien es comprensible que desees dar indicaciones sobre "qué pasaría si" relacionados con síntomas específicos, es importante tener precaución.

Aunque la IA generativa puede llegar a un punto en el que te da respuestas, no debes proporcionar todos los datos de salud a sistemas como ChatGPT.

Además, es crucial tener en cuenta que los pensamientos más personales, incluso aquellos relacionados con la salud mental, compartidos con chatbots como ChatGPT, no garantizan tampoco privacidad.

Es cierto que después de leer este artículo parece que todo está prohibido con este chatbot pero la realidad es que es de sentido común dejar estos 5 aspectos fuera de su radar al igual que haces en tu vida cotidiana. Por ejemplo, cuando navegas por Internet es bastante probable que jamás hayas volcado cualquiera de estos datos privados a la ligera así que por qué hacerlo con ChatGPT.a

Foto del redactor Carolina González ValenzuelaFoto del redactor Carolina González Valenzuela

Redactora de Tecnología

Redactora de Tecnología, especializada en inteligencia artificial y ciberseguridad.

Conoce cómo trabajamos en Computerhoy.