Ciberdelincuencia

Audios falsos con IA: cinco claves para desenmascarar a los estafadores

Las voces aún no son perfectas. Prestá atención a la calidad: si suena metálico, tiene cortes o cambios abruptos de volumen, podría ser un engaño.

Redacción

Por Redacción

22 Julio de 2024 - 21:09

Audios falsos con IA: cinco claves para desenmascarar a los estafadores

22 Julio de 2024 / Ciudadano News / Tecnología

¿Te ha llegado un audio donde una voz familiar te pide dinero? ¡Cuidado! La inteligencia artificial (IA) está siendo utilizada por ciberdelincuentes para crear audios falsos cada vez más sofisticados, capaces de imitar a la perfección la voz de tus seres queridos o incluso de entidades bancarias.

Estafa! Usan IA para imitar voces de familiares - NACION NEWS

¡No seás víctima! Aprendé a identificar estos audios engañosos con estas cinco señales clave:

1. Sonidos sospechosos:

  • Mala calidad de audio: inconsistencias en la grabación, cortes abruptos o ruidos de fondo extraños pueden indicar manipulación.
  • Fluctuaciones repentinas: cambios bruscos en el tono, volumen o claridad de la voz podrían ser señal de un audio generado por IA.

Google eliminó más de 5.500 millones de anuncios engañosos: IA y los  deepfakes en la mira - Infobae

2. Voz robótica:

  • Monotonía sospechosa: si el discurso suena artificialmente plano o carece de la emotividad natural de una conversación real, ¡alerta!
  • Entonación inusual: prestá atención a pausas extrañas o errores de entonación, típicos de las voces creadas por IA.

3. Incoherencias y sinsentidos:

  • Respuestas fuera de contexto: si la respuesta del audio no tiene sentido en relación a la conversación o no responde a tu pregunta, es probable que sea falso.
  • Afirmaciones absurdas: los audios falsos suelen contener datos ilógicos o incoherentes que buscan engañarte.

4. Presión por datos o dinero:

  • Peticiones urgentes: desconfiá de audios que solicitan información personal, contraseñas o pagos inmediatos.
  • Sensación de urgencia: los estafadores buscan que actués sin pensar. Nunca compartás información sensible sólo por un audio.

Por medio de Facebook e Instagram se divulgan cientos de videos deepfake:  ¿Qué es y cómo identificarlos?

5. Verificá la fuente:

  • Confirmación por otros medios: buscá contacto con la persona o entidad supuestamente emisora del audio por videollamada o redes sociales oficiales.
  • Múltiples vías de contacto: las empresas legítimas suelen ofrecer varias formas de comunicación. Si se niegan a verificar por otros medios, ¡sospechá!

¡Protegete!

  • Analizá con calma: no tomés decisiones apresuradas. Escuchá atentamente el audio y buscá pistas de fraude.
  • Lógica ante todo: desconfiá de mensajes sin sentido o fuera de lugar.
  • Confirmá la identidad: utilizá canales oficiales para verificar la procedencia del audio.
  • No compartás datos sensibles: nunca revelés información personal o financiera solo por un audio.

Una IA es utilizada para crear audios falsos de celebridades compartiendo  discursos racistas | Inteligencia artificial | Deepfake | México | España |  Estados Unidos | TECNOLOGIA | EL COMERCIO PERÚ

La IA y la ciberseguridad:

La falsificación de audios con IA representa un nuevo desafío para la seguridad digital.

Organizaciones e individuos deben estar preparados:

  • Educación: informarse sobre las estafas con audios falsos.
  • Herramientas tecnológicas: utilizar software especializado para detectar audios manipulados.
  • Responsabilidad del usuario: mantenerse alerta y crítico ante cualquier mensaje sospechoso.

Últimas noticias