Los peligros de la IA

Voces clonadas: cómo saber si te llama un familiar o un estafador

Los expertos en ciberseguridad advierten sobre un método de estafa que utiliza inteligencia artificial para engañar a las víctimas.

Ciudadano.News

Por Ciudadano.News

9 Abril de 2025 - 19:12

Voces clonadas: cómo saber si te llama un familiar o un estafador

9 Abril de 2025 / Ciudadano News / Tecnología

Los ciberdelincuentes han elevado sus métodos de estafa a un nuevo nivel de sofisticación con el uso de inteligencia artificial. Hoy, no sólo roban identidades: ahora clonan voces para simular que quien llama es un hijo, un hermano o un amigo en apuros. Y lo hacen con una precisión tan realista que la víctima difícilmente sospecha del engaño.

Así funciona la estafa que usa la Inteligencia Artificial para falsear voces

Esta preocupante tendencia se ha consolidado como una de las técnicas más peligrosas y difíciles de detectar dentro del fraude digital: "Los estafadores pueden manipular estos audios para que parezca que una persona cercana está solicitando ayuda urgente, como dinero para una emergencia", advierte el organismo.

Así operan: del audio público al fraude perfecto

El proceso comienza con la obtención de grabaciones de voz de la víctima que se desea suplantar. Bastan unos segundos de audio extraído de redes sociales, mensajes de voz o entrevistas públicas. Luego, los delincuentes alimentan ese material a un software de clonación de voz basado en inteligencia artificial, capaz de replicar el tono, acento, ritmo y pausas características de una persona.

Con la voz clonada, se genera un mensaje convincente que simula una situación límite: una emergencia médica, un accidente o una deuda urgente. La víctima, conmovida por el tono familiar y la urgencia, realiza transferencias de dinero o entrega datos sensibles sin sospechar que todo es una puesta en escena.

"El objetivo principal de los ciberdelincuentes es aprovechar la confianza de las víctimas para obtener beneficios económicos o información sensible", explica el Incibe.

¿Cómo protegerte de estas estafas con voz clonada?

Los expertos en ciberseguridad coinciden en una máxima: la prevención es la mejor defensa. Frente a una llamada sospechosa con tono familiar, hay varias medidas que pueden marcar la diferencia entre ser víctima o no del engaño:

  • Hacé preguntas de seguridad personales, como: "¿Cuál fue el nombre de mi primera mascota?". Son detalles que sólo la persona auténtica conoce.
  • Desconfiá de las urgencias económicas: si alguien llama pidiendo una transferencia de inmediato, especialmente desde un número desconocido, tomate el tiempo de verificar.
  • Confirmá por otros canales: una videollamada o un mensaje directo puede ayudar a certificar si realmente estás hablando con quien creés.
  • Evitá compartir datos privados como contraseñas, números de cuenta o códigos de verificación bajo presión.

El deepfake de voz: una amenaza en expansión

Este fenómeno no es un caso aislado ni exclusivo de víctimas individuales. La tecnología de deepfake de voz también está siendo usada para suplantar a ejecutivos de empresas, dando lugar a los llamados fraudes del CEO. En estos casos, empleados reciben instrucciones de "sus superiores" para realizar transferencias millonarias que terminan en manos de estafadores.

Clonar la voz de tu familia: así usan los hackers la inteligencia  artificial para robar tus ahorros

"Los audios generados son tan realistas que pueden convencer incluso a las personas más cautelosas", subraya el Incibe.

La recomendación es clara: verificar siempre antes de actuar, incluso si la voz parece venir de una fuente de confianza. En la era de la inteligencia artificial, la duda puede salvarte de perder tu dinero o tu privacidad.

Una voz familiar no siempre es sinónimo de confianza

La clonación de voz con IA representa uno de los retos más inquietantes del presente digital. Las voces ya no son prueba de identidad, y la urgencia emocional puede ser utilizada como arma. Conocer los métodos de los estafadores y aplicar técnicas de verificación se vuelve una necesidad urgente.

Últimas noticias