Lo que debería haber sido un fin de semana de romance se transformó en una pesadilla financiera para miles de personas en Latinoamérica. El “Fraude del Amor”, una táctica de ingeniería social de larga data, ha alcanzado un nuevo y peligroso nivel de sofisticación gracias a la inteligencia artificial generativa.
Según reportes de autoridades de ciberseguridad en la región, estafadores utilizaron Deepfakes de video y voz en tiempo real para suplantar identidades, logrando que las víctimas transfirieran grandes sumas de dinero y criptomonedas bajo la convicción de estar hablando con una pareja real.

Lee también: Intentaron clonar a Gemini usando más de 100 mil prompts
La trampa de la hiperrealidad en videollamadas
La tendencia es alarmante debido a un salto tecnológico crítico: la calidad de la IA actual ha vuelto las videollamadas prácticamente indistinguibles de la realidad. De acuerdo con el último boletín de Ciberseguridad Latam, los delincuentes ya no se limitan a perfiles falsos con fotos estáticas. Ahora, mediante aplicaciones de “Face-Swapping” y clonación de voz de alta fidelidad, mantienen conversaciones fluidas donde la gesticulación y la entonación son perfectas.
Las víctimas reportan haber sido contactadas inicialmente en aplicaciones de citas o redes sociales. Tras establecer un vínculo emocional rápido, los estafadores proponen videollamadas cortas pero convincentes para “confirmar su identidad”.

En estas sesiones, la IA simula problemas de conexión o iluminación tenue para ocultar pequeñas imperfecciones, pero la voz y el rostro clonado son suficientes para generar una confianza ciega. El resultado: solicitudes de dinero para “emergencias de viaje” o “inversiones conjuntas en criptomonedas” que terminan en cuentas imposibles de rastrear.

Impacto regional y medidas de prevención
En México, la Policía Cibernética ha detectado un aumento del 40% en este tipo de denuncias en comparación con el año anterior. En Colombia y Chile, las fiscalías locales advierten que los criminales están utilizando bases de datos filtradas de redes sociales para personalizar los ataques, conociendo de antemano gustos y detalles personales de las víctimas para hacer el engaño infalible.
Para evitar caer en estas trampas, los expertos recomiendan:
- Pruebas de movimiento: Pedir a la persona en la videollamada que se pase la mano por delante de la cara o que gire la cabeza lateralmente; esto suele romper el mapeo de los Deepfakes actuales.
- Verificación de audio: Prestar atención a ruidos de fondo metálicos o pausas antinaturales en la respuesta, signos clásicos de procesamiento de IA.
- Desconfianza financiera: Ninguna relación genuina que comienza de forma digital debería escalar a solicitudes de dinero en menos de 72 horas.
