En los últimos días, empezó a circular en redes sociales una advertencia que inquietó a muchos usuarios de ChatGPT: las conversaciones que mantenemos con la inteligencia artificial no serían tan privadas como se suele pensar. La preocupación no es menor, sobre todo para quienes consultan temas laborales, personales o de investigación.
Detrás de la alarma hay un punto cierto: por defecto, el historial de chats queda guardado y puede ser utilizado para mejorar el entrenamiento del modelo. Esto significa que, si no se ajustan algunas configuraciones, la información que compartimos —ideas, proyectos, opiniones sensibles o incluso detalles personales— podría quedar almacenada de manera accesible dentro de la cuenta.
Aunque pueda sonar preocupante, existen herramientas dentro de la plataforma para limitar la exposición. La privacidad no es automática: requiere una decisión activa de parte del usuario.
¿Por qué es importante revisar la configuración?
ChatGPT no es solo un asistente que responde consultas. Cada interacción contribuye a construir un registro de intereses, inquietudes y hábitos. Si otra persona obtiene acceso a la cuenta, aunque sea por descuido al dejar una sesión abierta, podría leer conversaciones pasadas sin demasiada dificultad.
Para quienes trabajan en proyectos en desarrollo —desde escritores, investigadores, estudiantes y periodistas hasta emprendedores— esto puede representar un riesgo: ideas sensibles o planes futuros podrían quedar al descubierto.
Cinco ajustes básicos para reforzar la privacidad
A continuación, una guía rápida para minimizar riesgos y mantener el control sobre la información que compartís:
- Revisar el historial y privacidad de la cuenta
Dentro del menú de configuración, es posible activar o desactivar el almacenamiento automático de chats. - Desactivar la opción que permite usar tus conversaciones para entrenar el modelo
Esto evita que tu interacción forme parte de los datos internos de la IA. - Eliminar manualmente chats que contengan información confidencial
No alcanza con ocultarlos: es necesario borrarlos para que no queden en el servidor. - Cerrar sesión si usás una computadora compartida
Además, se puede deshabilitar la función que muestra conversaciones recientes en la pantalla principal. - Evitar que herramientas de captura automática registren la conversación
Algunos dispositivos guardan capturas sin notificarlo; conviene verificar esta opción.
Un detalle menor que puede hacer una gran diferencia
Si estos pasos se pasan por alto, cualquier persona que acceda a la cuenta —de manera accidental o deliberada— podría revisar preguntas, búsquedas o reflexiones guardadas incluso meses atrás.
La clave es simple: la privacidad en ChatGPT no está garantizada por defecto, depende del usuario.
Cómo saber si tus chats están siendo utilizados para entrenar el modelo
Una duda frecuente entre los usuarios es si sus conversaciones ya forman parte del material utilizado por la IA para aprender. La respuesta depende de la configuración inicial de la cuenta. Para comprobarlo, es necesario ingresar al menú principal de "Configuración" (o Settings, si la interfaz está en inglés) y buscar el apartado "Data controls" o "Control de datos". Allí se indica si la función de entrenamiento está habilitada.
En caso de que esté activa, quiere decir que las conversaciones pasadas pudieron haber sido incorporadas al proceso de mejora del modelo. Si se desactiva a partir de ese momento, las nuevas charlas dejarán de ser consideradas, aunque las anteriores podrían seguir almacenadas internamente.
Por ese motivo, si se compartió información delicada en el pasado, una buena práctica es revisar y eliminar manualmente los chats que contengan datos sensibles, especialmente si incluyen proyectos profesionales, presupuestos, notas inéditas, ideas de negocios o conversaciones de trabajo. Esto ayuda a reducir la posibilidad de que esa información continúe circulando, incluso dentro de los sistemas internos del servicio.