Diseñan gafas de realidad aumentada que funcionan como la visión humana

Diseñan gafas de realidad aumentada que funcionan como la visión humana

por

Este dispositivo supera a los ya existentes, no dependiendo de los códigos de barras y otros símbolos para crear la realidad aumentad.

Un dispositivo de realidad aumentada, o AR (Augmented Reality),  incorpora datos digitales generados por ordenador en la realidad del usuario que lo utiliza.

Muchos de los actuales dispositivos AR brindan experiencias de realidad aumentada empleando servicios de localización mediante el escaneo de marcadores o códigos de barras impresos en el reverso de los objetos.

Un sistema AR convencional  identifica los objetos y luego los alinea con la realidad virtual. Sin embargo, el algoritmo clásico AR es difícil de utilizar en los objetos o espacios que no tienen códigos de barras, códigos QR, o marcadores, en particular aquellos en ambientes al aire libre. Así, su utilidad se ve limitada.

Para resolver este problema, Hoi-Jun Yoo, profesor de Ingeniería Eléctrica en KAIST (Korea Advanced Institute of Science and Technology) y su equipo, desarrollaron un chip AR que funciona igual que la visión humana, con el cual diseñaron las gafas K-Glass.

El siguiente video muestra una demostración del funcionamiento del K-Glass.

Este procesador se basa en el Modelo de Atención Visual (MAV), el cual duplica la capacidad del cerebro humano para procesar datos visuales.  El MAV, casi inconscientemente o automáticamente, muestra la información más relevante y pertinente sobre el medio ambiente en el que opera la visión humana, eliminando de esta manera los datos innecesarios. El procesador puede acelerar dramáticamente el cálculo de algoritmos complejos de AR.

El procesador AR del K-Glass tiene un procesamiento de datos de red similar a del sistema nervioso central de un cerebro humano.

Cuando el cerebro humano percibe datos visuales, diferentes conjuntos de neuronas trabajan al mismo tiempo en pequeños fragmentos del proceso de toma de decisiones.

El trabajo de un grupo de neuronas se retransmite a otro grupo para la siguiente ronda del proceso, que continúa hasta que un conjunto de neuronas decide determinar el carácter de los datos.

Del mismo modo, la red neuronal artificial del chip del K-Glass permite el procesamiento de datos en paralelo, aliviando la congestión de datos y reduciendo así el consumo de energía significativamente.

El procesador AR de KAIST tiene un área de 32 mm2, y fue fabricado mediante el proceso de 65nm. Ofrece 1,22 TOPS (tera-operaciones por segundo) de rendimiento máximo cuando funciona a 250 MHz. Consume apenas 778 milivatios con una fuente de alimentación de 1,2 V.

El procesador de ultra bajo consumo presenta una alta tasa de eficiencia de consumo de energía, al ejecutar operaciones en tiempo real de 30fps/720p con la cámara de vídeo de 5Mpx.

Por el lado de la duración de la batería, el Google Glass dura sólo dos horas, mientras que el K-Glass, dice profesor Yoo:

“Nuestro procesador puede trabajar durante largas horas sin sacrificar su alto rendimiento. El K-Glass es el gadget móvil ideal u ordenador vestible, que los usuarios pueden usar durante casi todo el día.”

¿Logrará el K-Glass competir con el Google Glass? Aprentemente sí. Sin embargo, existen otros factores que determinan el éxito de un producto.

Link: Sciencedaily

También puedes comentar en nuestro foro.