Internet

Fraude del Amor 2.0: Cómo el Deepfake rompió corazones (y cuentas bancarias) este 14 de febrero

Estafadores usan IA de video y voz para robar millones este 14 de febrero. ¿Fuiste una víctima?

Alza de fraudes digitales en San Valentín: Cómo evitar qué roben tus datos y te rompan el corazón
Alza de fraudes digitales en San Valentín: Cómo evitar qué roben tus datos y te rompan el corazón

Lo que debería haber sido un fin de semana de romance se transformó en una pesadilla financiera para miles de personas en Latinoamérica. El “Fraude del Amor”, una táctica de ingeniería social de larga data, ha alcanzado un nuevo y peligroso nivel de sofisticación gracias a la inteligencia artificial generativa.

Según reportes de autoridades de ciberseguridad en la región, estafadores utilizaron Deepfakes de video y voz en tiempo real para suplantar identidades, logrando que las víctimas transfirieran grandes sumas de dinero y criptomonedas bajo la convicción de estar hablando con una pareja real.

Deep fake and AI deepfake. Theft or fraud video. Face recognition and photo detection with artificial intelligence.
Deep fake and AI deepfake. Theft or fraud video. Face recognition and photo detection with artificial intelligence. Deep fake and AI deepfake. Theft or fraud video. Face recognition and photo detection with artificial intelligence. Machine learning and computer id analysis system technology. (Tero Vesalainen/Getty Images)

Lee también: Intentaron clonar a Gemini usando más de 100 mil prompts

La trampa de la hiperrealidad en videollamadas

La tendencia es alarmante debido a un salto tecnológico crítico: la calidad de la IA actual ha vuelto las videollamadas prácticamente indistinguibles de la realidad. De acuerdo con el último boletín de Ciberseguridad Latam, los delincuentes ya no se limitan a perfiles falsos con fotos estáticas. Ahora, mediante aplicaciones de “Face-Swapping” y clonación de voz de alta fidelidad, mantienen conversaciones fluidas donde la gesticulación y la entonación son perfectas.


Las víctimas reportan haber sido contactadas inicialmente en aplicaciones de citas o redes sociales. Tras establecer un vínculo emocional rápido, los estafadores proponen videollamadas cortas pero convincentes para “confirmar su identidad”.

deepfake en la Inteligencia Artificial
deepfake en la Inteligencia Artificial

En estas sesiones, la IA simula problemas de conexión o iluminación tenue para ocultar pequeñas imperfecciones, pero la voz y el rostro clonado son suficientes para generar una confianza ciega. El resultado: solicitudes de dinero para “emergencias de viaje” o “inversiones conjuntas en criptomonedas” que terminan en cuentas imposibles de rastrear.

Mercado Pago
Mercado Pago El dinero apartado mantiene la tasa del 13% y genera ganancias diarias. (Freepik)

Impacto regional y medidas de prevención

En México, la Policía Cibernética ha detectado un aumento del 40% en este tipo de denuncias en comparación con el año anterior. En Colombia y Chile, las fiscalías locales advierten que los criminales están utilizando bases de datos filtradas de redes sociales para personalizar los ataques, conociendo de antemano gustos y detalles personales de las víctimas para hacer el engaño infalible.

Para evitar caer en estas trampas, los expertos recomiendan:

  • Pruebas de movimiento: Pedir a la persona en la videollamada que se pase la mano por delante de la cara o que gire la cabeza lateralmente; esto suele romper el mapeo de los Deepfakes actuales.
  • Verificación de audio: Prestar atención a ruidos de fondo metálicos o pausas antinaturales en la respuesta, signos clásicos de procesamiento de IA.
  • Desconfianza financiera: Ninguna relación genuina que comienza de forma digital debería escalar a solicitudes de dinero en menos de 72 horas.

Tags

.

Lo Último