Desde su lanzamiento, ChatGPT se convirtió en una de las herramientas de inteligencia artificial más usadas en el mundo, pero expertos en seguridad advierten que su popularidad trae consigo desafíos en materia de privacidad. Según un informe reciente, millones de usuarios comparten datos sensibles con esta Inteligencia Artificial sin medir las posibles consecuencias.
Jamás lo hagas en ChatGPT
La compañía de ciberseguridad Indusface publicó un análisis donde se señala que más de la mitad de los adultos estadounidenses utilizan de manera frecuente plataformas como ChatGPT, y que una gran parte de ellos incluso admite su dependencia. El estudio remarca que el mal uso de esta IA puede comprometer tanto a individuos como a empresas.
Los 5 datos que nunca debes escribir en ChatGPT
- Información laboral confidencial sin autorización.
- Contraseñas o credenciales de acceso.
- Datos personales como nombre completo, dirección o imágenes.
- Información financiera.
- Códigos fuente o propiedad intelectual.
Ingresar estos datos en ChatGPT expone a los usuarios a posibles fraudes, suplantaciones de identidad y filtraciones de alto impacto.
ChatGPT y la información laboral
Uno de los puntos más sensibles que detectó el informe es el uso de ChatGPT para compartir documentos de trabajo. Según el estudio, un 38% de los empleados en Estados Unidos reconoció haber introducido datos laborales confidenciales sin autorización. Los expertos advierten que escribir informes, borradores o presentaciones en esta IA puede generar fugas de información crítica.
ChatGPT y las contraseñas
El informe también advierte sobre el riesgo de introducir contraseñas en ChatGPT. Una parte de los encuestados reconoció almacenar sus claves en navegadores o notas del celular, pero llevarlas a esta IA significa exponerlas a vulnerabilidades adicionales. Una contraseña escrita en allí puede ser interceptada, utilizada de manera indebida o filtrada en futuros entrenamientos de modelos de IA.
Datos personales, financieros y código en ChatGPT
Otro de los riesgos centrales está en compartir información personal o financiera dentro de ChatGPT. Ingresar nombre completo, dirección o fotografías puede abrir la puerta a fraudes, estafas digitales o incluso a la creación de deepfakes. Lo mismo ocurre con los datos financieros o los códigos fuente: al volcarlos en esta IA podrían almacenarse y ser reutilizados, lo que representa un riesgo para la privacidad y la propiedad intelectual de empresas y profesionales.