Software

Investigadores crean objetos impresos en 3D que logran engañar a las redes neuronales

Mediante un algoritmo burlaron la precisión del clasificador de imágenes de Google, InceptionV3.

Un grupo de investigadores independientes creó recientemente un algoritmo que engaña los parámetros de las redes neuronales artificiales.

Mediante la impresión de objetos 3D, demostraron lo susceptibles que son estas inteligencias artificiales y las limitantes que tienen con el mundo real. La investigación fue realizada por los expertos en aprendizaje profundo (deep learning) Anish Athalye, Logan Engstrom, Andrew Ilyas y Kevin Kwok del MIT mediante la organización LabSix.

Las redes neuronales artificiales son una alegoría del funcionamiento neuronal de los organismos vivos. Se trata de modelos computacionales, basados en unidades de cálculo, que intentan simular el comportamiento de una neurona real. Estas unidades trabajan en conjunto para encontrar parámetros y obtener resultados, pudiendo ser entrenadas para obtener mejores clasificaciones.

En la medida que estos parámetros se refuerzan, las redes van fijando los resultados y por consiguiente aprendiendo. A pesar de que en el mundo real se sigue intentando identificar con precisión el comportamiento de nuestro cerebro, estos modelos han servido para aplicaciones en el reconocimiento de imágenes, voz, señales, predicciones climáticas, en mercados financieros, e incluso para controlar robots.

Aunque las redes pueden alcanzar un nivel de clasificación y rendimiento casi humano en algunas tareas concretas, son particularmente vulnerables a muchos ejemplos, generando clasificaciones erróneas. Uno de estos, se muestra más abajo, donde es un gato que fue identificado como guacamole por el clasificador de imágenes InceptionV3 de Google; solo cambiando la rotación de la imagen fue reconocido como lo que realmente era.

Engañando a las redes neuronales

Este tipo de fallas, también es extrapolable a los objetos impresos en 3D. El trabajo de los investigadores del MIT demuestra cómo, mediante un algoritmo para producir ejemplos contradictorios, se puede engañar a una red. Los expertos experimentaron con factores como el desenfoque, la rotación o el zoom y fabricaron objetos 3D con características especiales. Como la red tiene sus propios parámetros ya asimilados, no entrega resultados apropiados.

Los investigadores fabricaron una tortuga para realizar pruebas, la cual en su modelo original es identificada como tal, aunque con uno adverso o perturbado el clasificador InceptionV3 terminó por creer que era un rifle, aún analizándolo desde diferentes ángulos.

El mismo ejercicio fue aplicado a una pelota de béisbol que fue construida utilizando parámetros que pudiesen hacer fallar a la red neuronal: el resultado fue el esperado y la red lo identificó como un café expreso. En el resumen de la investigación dicen:

Estamos introduciendo el primer método para construir objetos en 3D que engaña constantemente a las redes neuronales en una amplia gama de ángulos o puntos de vista. El algoritmo genera ejemplos adversos, y hemos podido comprobar su aplicación en dos dimensiones (2D y 3D). Las pruebas demuestran que los ejemplos adversos son preocupantes en los sistemas del mundo real.

La investigación invita a repensar los roles que pueden cumplir estas inteligencias artificiales no estando lo suficientemente adiestradas, pues en el mundo real los objetos están moviéndose constantemente o adquieren valores dinámicos; por ejemplo, una pelota manchada, una cara pintada o sencillamente objetos que no encajan con los parámetros comunes.

Tags

Lo Último


Te recomendamos