:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/metroworldnews/ICC37HYD7FH4TBBW2IMQOU2Q74.jpg)
¡Olvídate de los emoticonos! Durante la primera Conferencia Internacional de “Humanos Aumentados” en Megève (2-3 Abril, Francia) Dzmitry Tsetserukou y Alena Neviarouskaya de la Universidad de Tokio presentaron iFeel_IM! [PDF], un sistema que pretende llevar las emociones del mundo virtual a la realidad.
Se trata de un prototipo de comunicación en tiempo real que añade sensaciones humanas mediante canales hápticos de las emociones en el ciberespacio. iFeel_IM! utiliza un conjunto de dispositivos que mediante sensores, motores, efectos de vibración y altavoces, producen sensaciones tales como un abrazo (HaptiHug), latidos del corazón (HaptiHeart), mariposas en el estómago (HapTiButterFly), escalofrío (HaptiShiver) y cosquillas (HaptiTicker).
“Estamos empapados de medios para comunicar como el SMS, correo electrónico, Twitter, mensajería instantánea y mundos virtuales 3D, pero muchas personas no se conectan emocionalmente. Por eso buscamos crear una experiencia de inmersión profunda que de emociones reales a la comunicación online”
El sistema iFeel_IM! da gran importancia a la detección automática de emotividad que transmite a través de mensajes de texto en mundos virtuales como Second Life, donde las emociones detectadas por los avatares de un entorno virtual y las sensaciones de “tacto social” mejoran el estado afectivo del usuario.
Varios equipos de investigación en Megève también dieron a conocer los avances en el uso de las ondas cerebrales – capturadas por los electrodos colocados en la cabeza – para operar computadoras o descifrar las emociones.
:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/metroworldnews/IX57JIUK45HQNJV2WHC3ZDXIPY.jpg)
Link: iFeel_IM robotic wear lets your real emotions flow in virtual space (GizmoWatch)