Las aplicaciones de Inteligencia Artificial (IA) chinas, como DeepSeek, han estado bajo la lupa por el uso de información sensible de los usuarios. En diálogo con El Interactivo de Ciudadano.news, la especialista Belén Ortega señaló que el riesgo no es exclusivo de estas plataformas.
El principal problema es que, al dar acceso completo en nuestro celular, se pueden "meterse dentro de esa galería" de datos, exponiendo nuestra privacidad.
Nomenclatura y buenas prácticas
Para mitigar estos riesgos, la experta propone una práctica clave para quienes manejan información sensible: la nomenclatura, que consiste en camuflar los datos al interactuar con la IA.
Por ejemplo, si se debe incluir un nombre y DNI, se puede usar un dato similar temporalmente: "Le voy a poner J DNI espacio y después lo voy a completar".
De esta manera, Ortega enfatiza que el usuario siempre debe validar la información y recomienda otras dos prácticas esenciales:
Verificación doble: activar siempre la "verificación en dos pasos", además de Face ID o huella, especialmente en aplicaciones sensibles como las bancarias, para añadir una capa extra de seguridad.
Usar la IA contra la IA: si existe duda sobre la seguridad de una aplicación, revisar los términos y condiciones, copiarlos y pegarlos en ChatGPT para hacer preguntas y analizar posibles riesgos.