Robótica

Ciudades inventadas: así funcionan los deepfakes de imágenes satelitales

La tecnología puede llevarnos a situaciones increíbles.

El mundo se está acostumbrando a los deepfakes, videos falsos creados por inteligencia artificial. Vemos la “resurrección” de personas famosas, otras diciendo frases que no son suyas o, incluso, cantando, bailando o realizando actos sexuales. Ahora es el turno de las ciudades inventadas.

La inteligencia artificial está alcanzando nuevos objetivos, gracias a los deepfakes de imágenes satelitales. Ahora los mapas generados por la IA podrían utilizarse como herramientas de desinformación.

The Verge cuenta que un grupo de investigadores de la Universidad de Washington creó una manera de generar fotografías satelitales detallistas para detectar imágenes manipuladas. Este experimento permite entender cómo se hacen estas falsas ciudades.

¿Cómo lo hizo? Utilizando un algoritmo de inteligencia artificial para generar deepfakes, alimentando los rasgos de las imágenes satelitales aprendidas en distintos mapas base.

Así se crean los deepfakes de imágenes satelitales

Tomemos una ciudad, por ejemplo, Santiago de Chile. A ella le superponemos edificios de Buenos Aires o de Montevideo, generando una ciudad totalmente distinta. La ejecución no queda perfecta, pero es lo suficientemente buena como para pensar que son errores generados por la baja calidad de la imagen.

Tras crear el software para generar las imágenes satelitales deepfakes, prepararon otro capaz de detectar las falsificaciones basadas en textura, contraste y color.  

Bo Zhao, profesor asistente de Geografía en la Universidad de Washington, está al frente de las investigaciones sobre los deepfakes de imágenes satelitales.

“Queremos desmitificar la función de fiabilidad absoluta de las imágenes satelitales y sensibilizar al público sobre la posible influencia de la geografía falsa profunda”, indicó Zhao, en un correo a The Verge.

“Muchos profesionales del Sistema de Información Geográfica han estado celebrando los méritos técnicos del aprendizaje profundo y otros tipos de inteligencia artificial para la resolución de problemas geográficos”, advierte Zhao. “Pero pocos han reconocido o criticado públicamente las amenazas potenciales de falsificación profunda en el campo de la geografía o más allá”.

Las posibles manipulaciones que se puedan generar con estas imágenes por inteligencia artificial

Imaginemos a una organización que cree deepfakes de poblaciones con incendios o inundaciones. O bien, otras para desacreditar historias basadas en imágenes satelitales reales.

“Si seguimos sin ser conscientes de una falsificación profunda que no está preparada, corremos el riesgo de entrar en una distopía de ‘geografía falsa”.

El ejemplo que coloca The Verge es el de informes de campos de detención de la etnia uigur en China. Estos obtuvieron credibilidad gracias a pruebas satelitales. ¿Qué pasaría si el gobierno chino dice que esas imágenes son falsas?

Es más fácil producir imágenes satelitales falsas que videos falsos de seres humanos. Las resoluciones más bajas, explica Zhao, pueden ser muy convincentes. “Dado que la mayoría de las imágenes satelitales son generadas por profesionales o gobiernos, el público generalmente cree que son auténticas”.  

“Nuestro estudio proactivo advierte de la aparición y proliferación de falsificaciones profundas en la geografía”, apuntan los investigadores en el estudio publicado por la Universidad de Washington. “Sugerimos detecciones oportunas de falsificaciones profundas en datos geoespaciales y estrategias adecuadas de afrontamiento cuando sea necesario”.

“Más importante aún”, insisten, “se alienta a cultivar una alfabetización crítica de datos geoespaciales y, por lo tanto, a comprender los impactos multifacturados de la geografía falsa profunda en los individuos y la sociedad humana”.

Tags

Lo Último


Te recomendamos