Project Soli convierte tu mano en la única interfaz que necesitas #io15

Por medio de tecnología de radar, el nuevo proyecto de Google ATAP muestra como se puede controlar con gestos usando los dedos.

Si algo nos ha llamado la atención en este keynote es la serie de proyectos de Google ATAP, la división de Google encargada de productos innovadores como Ara, Tango o Project Jacquard. Hoy, durante una sesión revelaron Project Soli, un sensor con tecnología de radar que podría revolucionar el modo como interactuamos con nuestros dispositivos.

Para tener una idea de Project Soli podemos remontarnos a la frase “Tu eres el control” que fue popularizada por Microsoft con Kinect. Para Project Soli nuestra mano es el mejor método para interactuar con dispositivos y ofrece un modo de reemplazar los controles físicos por gestos que se registran por medio de tecnología de radar.

Kinect, Leap Motion o las pantallas de Minority Report serían una aproximación a Project Soli. En el caso del producto de Google ATAP, la tecnología depende del uso de un chip que reconoce el movimiento, velocidad y distancia de nuestras manos. Project Soli utiliza un espectro de radiofrecuencias para rastrear los gestos que realizamos y permite interactuar con vestibles o dispositivos IoT.

El chip de Project Soli trabaja con el espectro de 60Hz y es tan pequeño como una tarjeta SD. La tecnología permite que opere a través de materiales, por lo que puede ser integrado en cualquier objeto. “No hay nada que romper, no hay lentes, es una pieza de arena que puedes colocar en tu placa” comenta Ivan Poupyrev, Technical Program Lead de Google ATAP.

En Google I/O se encuentran dos mesas, una que muestra el modo de interactuar con un objeto 3D por medio de gestos y otra que detecta los movimientos de la mano y el modo en que se traduce la señal. En el medio hay un aparador que muestra lo mucho que ha avanzado el equipo de desarrollo para reducir el tamaño del chip.