Sin Verso

Estafas con IA: el engaño de los audios clonados y los vacíos legales en la justicia

La imitación casi perfecta de audios e imágenes mediante chatbot y aplicaciones plantea nuevos desafíos para el ciberdelito. Las claves a considerar.

Ciudadano.News

Por Ciudadano.News

24 Diciembre de 2025 - 14:36

No todo lo que escuchas es real: así es como la IA permite clonar voces para estafas familiares y qué debes hacer para protegerte hoy mismo.
No todo lo que escuchas es real: así es como la IA permite clonar voces para estafas familiares y qué debes hacer para protegerte hoy mismo. Imagen: Redes/Filtro Gemini.

24 Diciembre de 2025 / Ciudadano News / Sociedad

El avance vertiginoso de la Inteligencia Artificial (IA), en su capacidad de imitación de la conducta humana, ha permitido que los ciberdelincuentes perfeccionen las estafas virtuales mediante la clonación de voz. De acuerdo al Dr. Carlos Richeri, con solo breves segundos de audio extraído de redes sociales o mensajes, un algoritmo puede replicar el tono y la cadencia de una persona conocida.

Lo antedicho se suma al uso de bases de datos filtradas que permiten a los atacantes conocer vínculos familiares en tiempo real. Para prevenirlo, es fundamental establecer "palabras clave" familiares, desconfiar de pedidos de dinero urgentes por audio y verificar la identidad mediante preguntas que solo el entorno íntimo conozca.

La nota completa:

 

Últimas noticias