logo
 /
Software 01/06/2021

Los deepfakes geográficos se convierten en un peligro y al mismo tiempo en reto para la tecnología de detección

Los Deepfakes son tecnologías que están asociadas a los rostros de personas. Pero hay expertos aplicándolos a los mapas.

En el mundo de la tecnología se trabaja constantemente en fabricar o desarrollar dispositivos y sistemas que faciliten la vida del ser humano. Pero de igual forma, hay personas, con un basto conocimiento en sistemas, que los usa con fines que podrían considerarse negativos. Y a continuación exponemos un posible caso de este tipo. Expertos en softwares están en desarrollo de inteligencia artificial capaz de generar un deepfakes de geografía, es decir mapas inexistentes que podrían engañar o desacreditar incluso a la voz de un estado. Conozcamos detalles sobre lo que informa la firma Panda Security.

Por lo general los deepfakes son plataformas basadas en inteligencias artificiales, que se usan para cambiar el rostro de una persona. Esta práctica es común y se ha visto en reiteradas ocasiones, pues hay múltiples apps que ejecutan dicha función. Sin embargo, pensando en la seguridad, existen programas de detección para evitar fraudes en aplicaciones que usen reconocimiento facial. Por lo tanto, en la mayoría de los casos, un deepfake usado para un cambio de rostro termina siendo algo recreativo.

Pero estos sistemas, como la mayoría de cualquier elemento tecnológico, ha evolucionado. Entonces, esta misma inteligencia artificial, ha sido capaz de modificar los detalles de un mapa tomado por satélites. A esa función se le conoce como deepfakes geográficos. Y el problema no es tanto que existan, sino que es mucho más difícil de detectar, cuando son falsos.

“Los geógrafos están preocupados por la difusión de deepfakes de imágenes satelitales. Abren la puerta a múltiples amenazas y aportan un arma más a las campañas de desinformación”, dice la firma de seguridad mencionada.

Peligros de los deepfakes geográficos

En primer lugar, desde Panda Security manifiestan que los deepfakes geográficos son la más reciente versión de una histórica práctica de la humanidad. Detallan que las personas mienten en los mapas desde su misma existencia. Hace miles o cientos de años, lo hicieron con la intención de esconder rutas o para evitar el contra espionaje. Sin embargo, siempre fue una herramienta que estuvo en las manos de estados u organizaciones oficiales.

En cambio, los deepfakes geográficos podrían estar en manos de cualquier persona y para los científicos sería muy difícil de detallar si es falso o real. Lo primero que deberían hacer para abordar el problema, según Panda Security, es aceptar que existen.

“Mientras que muchos profesionales de los SIG (sistemas de información geográfica) han estado celebrando los méritos técnicos del aprendizaje profundo y otros tipos de IA para la resolución de problemas geográficos, pocos han reconocido o criticado públicamente las amenazas potenciales de los deepfakes en el campo de la geografía”, dice investigadores del Universidad de Washington, en un artículo.

En consecuencia, estos mismos expertos ejecutaron tecnologías que se usan para evitar el deepfake en un rostro. Y así fue como se encontraron con que era una función mucho más complicada. Es mucho más fácil crear una imagen de satélite falsa que un video de una persona bailando con el rostro de Shakira, por ejemplo. Pero es más difícil de detectar la captura satelital.

Campañas de desinformación

El ejemplo más claro de peligro, que expone el portal citado, es una campaña de desinformación. Con un mundo lleno de fake news, se podría desacreditar la vocería de un estado que reseñe un incendio forestal o una inundación. Esta imagen, creada por una inteligencia artificial sería capaz de generar revuelo o desmentir, dependiendo de cual sea el caso. Entonces, así se convierte en un problema de estado.

“Si seguimos sin ser conscientes de los deepfakes y sin estar preparados contra ellos, corremos el riesgo de entrar en una distopía de la geografía falsa”, explica la firma. Y con esto expresan que hasta ahora el mayor problema es el no reconocimiento de esta eventualidad.