Los deepfakes de audio se salieron de control: ya han estafado a varias compañías por este medio

Los deepfakes de audio se salieron de control: ya han estafado a varias compañías por este medio

La empresa de seguridad Symantec reconoció que ya ha tenido que atender varios casos en los que se imitan voces por medio de la tecnología de deepfakes.

¿Qué harías si trabajaras en el área de financiera de una compañía y te llamara el propio CEO para decirte que necesita cerrar un negocio urgente que ha estado esperando hace tiempo? Se trata de la típica voz de tu superior exaltado, que solicita cuanto antes una millonaria transferencia para supuestamente no perder una oportunidad. Ante esto, no sería raro que decidieras seguir sus instrucciones al pie de la letra. Sin embargo, es posible que termines cayendo en una estafa producto de las tecnologías de los deepfakes.

De los deepfakes ya hemos hablado en varias ocasiones. Normalmente se asocia a un video que digitalmente suplanta la cara de una persona famosa para hacer creer al público que está diciendo algo por fuera de lo común. Por ejemplo, hace poco se utilizó la cara de Mark Zuckerberg para criticar a Facebook. Además, también se ha utilizado para hacer porno.

Pero los deepfakes van más allá de solo videos destinados para el placer o la crítica. La tecnología también se está utilizando para cometer crímenes, y se está empleando en forma de sonido. Así, las llamadas serían un medio para suplantar la voz de algún directivo para cometer estafas a corporaciones.

De hecho, esto lo confirmó recientemente la compañía de seguridad Symantec. Su director de tecnología, Hugh Thompson, reconoció recientemente ante CNBC que en los últimos meses han tenido que atender tres casos en los que se utiliza la tecnología deepfake para estafar a empresas. Básicamente, se utiliza a una inteligencia artificial que estudia una voz por medio de grabaciones para imitarla.

Desprotegidos

Según el ejecutivo, se trata de un sistema dinámico. Detrás de la llamada hay alguien que puede escribir los diálogos para que la inteligencia artificial los diga y así poder interactuar con la persona al otro lado de la línea. Por lo tanto, es difícil en primera instancia detectar el engaño.

Por otro lado, en estos momentos se está desarrollando apenas el software necesario para detectar los deepfakes. Sin embargo, compañías como Symantec o ZeroFOX no han confirmado todavía su disponibilidad.

En caso de que el software de detección esté listo, es probable que este sea muy costoso. Siendo así, las herramientas actuales para la defensa contra la tecnología deepfake son realmente limitadas.

Audio Deepfakes