ChatGPT

Los 5 datos que jamás debés contarle al ChatGPT para cuidar tu privacidad

Un informe de ciberseguridad reveló qué información no conviene ingresar en ChatGPT para evitar riesgos de filtraciones y fraudes digitales.

Ciudadano.News

Por Ciudadano.News

18 Agosto de 2025 - 12:46

Nunca escribas esto en ChatGPT.
Nunca escribas esto en ChatGPT. iStock.

18 Agosto de 2025 / Ciudadano News / Tecnología

Desde su lanzamiento, ChatGPT se convirtió en una de las herramientas de inteligencia artificial más usadas en el mundo, pero expertos en seguridad advierten que su popularidad trae consigo desafíos en materia de privacidad. Según un informe reciente, millones de usuarios comparten datos sensibles con esta Inteligencia Artificial sin medir las posibles consecuencias.

Jamás lo hagas en ChatGPT

La compañía de ciberseguridad Indusface publicó un análisis donde se señala que más de la mitad de los adultos estadounidenses utilizan de manera frecuente plataformas como ChatGPT, y que una gran parte de ellos incluso admite su dependencia. El estudio remarca que el mal uso de esta IA puede comprometer tanto a individuos como a empresas.

Los 5 datos que nunca debes escribir en ChatGPT

  • Información laboral confidencial sin autorización.
  • Contraseñas o credenciales de acceso.
  • Datos personales como nombre completo, dirección o imágenes.
  • Información financiera.
  • Códigos fuente o propiedad intelectual.

Ingresar estos datos en ChatGPT expone a los usuarios a posibles fraudes, suplantaciones de identidad y filtraciones de alto impacto.

ChatGPT y la información laboral

Uno de los puntos más sensibles que detectó el informe es el uso de ChatGPT para compartir documentos de trabajo. Según el estudio, un 38% de los empleados en Estados Unidos reconoció haber introducido datos laborales confidenciales sin autorización. Los expertos advierten que escribir informes, borradores o presentaciones en esta IA puede generar fugas de información crítica.

ChatGPT y las contraseñas

El informe también advierte sobre el riesgo de introducir contraseñas en ChatGPT. Una parte de los encuestados reconoció almacenar sus claves en navegadores o notas del celular, pero llevarlas a esta IA significa exponerlas a vulnerabilidades adicionales. Una contraseña escrita en allí puede ser interceptada, utilizada de manera indebida o filtrada en futuros entrenamientos de modelos de IA.

Datos personales, financieros y código en ChatGPT

Otro de los riesgos centrales está en compartir información personal o financiera dentro de ChatGPT. Ingresar nombre completo, dirección o fotografías puede abrir la puerta a fraudes, estafas digitales o incluso a la creación de deepfakes. Lo mismo ocurre con los datos financieros o los códigos fuente: al volcarlos en esta IA podrían almacenarse y ser reutilizados, lo que representa un riesgo para la privacidad y la propiedad intelectual de empresas y profesionales.

Últimas noticias