Compartir en redes sociales

Navegación

Google Tango: la nueva realidad aumentada llega por Navidad

Project Tango ya está aquí, una realidad aumentada aún más real y precisa está disponible para el público general desde el pasado 1 de Diciembre gracias al nuevo terminal de Lenovo, el Phap 2 Pro, un híbrido entre smartphone y tablet.

Google Tango logo

En Neosentec llevábamos tiempo siguiendo la pista a esta tecnología, y ya hemos podido adquirir el nuevo terminal, abriéndonos un nuevo abanico de posibilidades que comentaremos a continuación.

En primer lugar, hablemos de los sensores. Hasta ahora, las aplicaciones de realidad aumentada de los smartphones convencionales, hacían uso de una única cámara, de una calidad, distancia focal, tiempo de enfoque y tasa de captura dependiente del modelo de dispositivo. Debido a la gran diversidad de terminales, programar una app de realidad aumentada que funcionase de manera precisa para diversos dispositivos y en cualquier escenario fuese prácticamente imposible. Por eso, la mayoría de ejemplos y aplicaciones están acotados a ciertas zonas controladas, por medio de un logo, un marcador, un código visual, etc.

Sin embargo, los smartphones compatibles con tecnología Tango, deberán incluir necesariamente estos tres componentes:

  • Cámara RGB de enfoque rápido (la cámara tradicional de los dispositivos actuales), en el caso del Phab 2 Pro, de 16 Mpx.
  • Cámara de movimiento. Se trata de una cámara monocromo, de gran angular con una gran tasa de captura y escasa sensibilidad a cambios de iluminación, que permite determinar el movimiento en la imagen de forma muy precisa.
  • Cámara de profundidad. Consta de un emisor de luz infrarroja (no visible al ojo humano) que ilumina la estancia, y un receptor también de luz infrarroja, que recibe el resultado y devuelve una imagen de la profundidad de los objetos, más luminosos si están cerca o prácticamente oscuros si están lejos.

lenovo phab 2pro sensores

Despiece de los diferentes sensores del Lenovo Phab 2 Pro

Con este hardware específico podemos asegurar que la experiencia con la realidad aumentada sea satisfactoria en cualquier terminal que cuente con dichos sensores.

Además de los requisitos de hardware, Google ofrece una librería de desarrollo para desarrollar aplicaciones, haciendo que manejar la información de todos estos sensores sea una tarea sencilla.

Dicha librería cuenta con 3 módulos bien diferenciados:

  • Motion Tracking: Como su nombre indica, este módulo se encarga de trazar nuestro movimiento desde que se inicia la aplicación, devolviendo nuestra posición y rotación en todo momento, permitiendo así posicionar cualquier objeto 3D en nuestro entorno manteniéndose estable a lo largo del tiempo.
  • Área Learning: Unos de los problemas del Motion Tracking, es que cada vez que iniciamos la aplicación, perdemos la referencia de nuestra posición o de los objetos 3D de la escena en anteriores ejecuciones. Para solventarlo, es posible enseñar al sistema previamente cómo es el entorno físico, y que éste pueda utilizar ese conocimiento para que el Motion Tracking conozca la referencia de posición en todas las ejecuciones.
  • Depth sensing: Disponer de una cámara de profundidad mejora la precisión del Motion Tracking, pero además permite tener una referencia de la distancia real de los objetos en nuestra escena, de los que podemos hacer mediciones, o incluso poder ocultar un objeto 3D si está situado detrás de un objeto real de nuestro entorno.

area-learning

Representación del Area Learning o mapeado del espacio

Como este ha sido nuestro propio regalo de Reyes, hemos aprovechado para grabar este pequeño vídeo de demostración, y de paso ¡felicitaros las fiestas a todos!

Como podéis ver, nuestra experiencia ha sido satisfactoria, no obstante nos gustaría comentar también algunas limitaciones que hemos encontrado y que se espera que se vayan resolviendo a lo largo del tiempo:

  • Velocidad de la cámara de profundidad limitada: Actualmente se encuentra limitada en 5 frames por segundo. Desde Google afirman que se trata de una situación temporal que corregirán en futuras versiones de las librerías de desarrollo.
  • Pobre experiencia en medios de transporte: Quizás no sean el entorno ideal para utilizar aplicaciones de realidad aumentada, pero quién sabe en un futuro. El problema se debe a que Tango utiliza también los sensores inerciales de dispositivo (acelerómetro y giroscopio) para el Motion Tracking. Al estar desplazandonos las lecturas de dichos sensores se falsean y con ello los resultados.
  • No funciona en entornos abiertos: Con entornos abiertos no nos referimos al jardín de nuestra casa, sino a una superficie mayor como un parque o similares. La luz infrarroja que emite el sensor de profundidad no consigue iluminar ningún objeto y por tanto no se obtiene ninguna imagen, produciéndose la pérdida completa de nuestra posición.

Recuerda que Tango no es una nueva tecnología en desarrollo, ni tampoco ciencia ficción, es real y ya está en la calle. Si tienes alguna idea para tu negocio, desde Neosentec te podemos ayudar. ¿A qué esperas para probarlo?

Sin comentarios todavía.

Deja un comentario