ConectAR: Experimentando con realidad aumentada

«Realidad Aumentada» (Augmented Reality o AR) es el término que se suele utilizar para definir una visión directa o indirecta de un entorno físico del mundo real, cuyos elementos se combinan con elementos virtuales para la creación de una realidad mixta en tiempo real. Se suele lograr la experiencia a través del uso de uno o varios dispositivos que sintetizan la información virtual con la información física ya existente. Esta es la principal diferencia con la realidad virtual, en tanto no sustituye a la realidad física, sino que sobreimprime los datos informáticos al mundo real.

Uno de los ejemplos más comunes de realidad aumentada es aquel en el que la imagen capturada por la cámara de un teléfono celular se sirve de la posición geográfica del mismo, la orientación respecto de una brújula, la inclinación del dispositivo, entre otros datos, y a eso le suma cierta información que recupera de internet, como sugerencias de restaurantes cercanos, y luego lo muestra todo sobre la imagen misma. De esta manera, el usuario al encontrarse en una ciudad desconocida puede simplemente apuntar la cámara de su teléfono hacia un edificio que le llame la atención o hacia cierta calle y ver sobre la imagen misma de qué edificio se trata o qué locales están abiertos en ese momento sobre esa calle.

Las investigaciones en esta área suelen enfocarse en la mejora de visores, como el parabrisas de los autos o la cabina de un avión, donde podrían mostrarse datos en tiempo real sobre el estado del vehículo, velocidad y demás sin que el conductor deba desviar sus ojos del camino, o mismo algunas propuestas aún más ambiciosas como los lentes propuestos por Google, conocidos como Project Glass, donde el usuario usa unos lentes que tienen una pantalla semi-transparente sobre uno de los ojos, permitiéndole tener acceso inmediato a una plétora de contextuales.

La posibilidad de enriquecer la observación directa con información contextualizada permite la incorporación de la misma al entorno del aula. En particular, en el marco de nuestras experimentaciones, trabajamos en la visualización de modelos tridimensionales que puedan ser manipulados usando una webcam. De esta manera, a partir de cierta referencia física, la pantalla de la computadora mostraría el objeto 3D elegido correspondiéndose con el movimiento de dicha referencia.

ConectAR

Nuestra aplicación, ConectAR, basada en EZFlar, fue realizada por Tony Fama al descubrir que la aplicación original no era exactamente lo que se estaba buscando. EZFlar fue creado en Brasil como un proyecto de código abierto, diseñado para permitir a los programadores desarrollar aplicaciones de AR con rapidez. A través de su sitio web puede subirse un contenido como una imagen o modelo 3D y luego generando un patrón y encendiendo la webcam, puede verse nuestro contenido sobre el patrón al ser captado por la cámara.

El trabajo realizado en el laboratorio se enfocó en modificar ciertos aspectos de dicha herramienta. Mientras que EZFlar sólo cuenta con 5 patrones, ConectAR permite utilizar hasta 100. Asimismo, la aplicación original requería de modificaciones más complejas para cargar los contenidos (imagen, modelo 3D, etc.), mientras que ConectAR carga este material desde un archivo XML fácil de modificar. Por último, la aplicación fue cargada en un archivo HTML de tal manera que pudiera utilizarse de manera offline sin inconvenientes. Una preocupación importante fue maximizar la facilidad para modificar esta aplicación.

Instrucciones

Respecto de las modificaciones, los contenidos o recursos (imagenes, modelos 3D, etc.) deben ser indicados en el archivo ”archivos.xml” y los archivos que se utilizarán deben ser puestos dentro de la carpeta “recursos”. La estructura del XML es muy sencilla, hay un tag que es <recursos> que engloba archivos, luego, los usuarios pueden agregan hasta 100 archivos, en tanto cada archivo debe corresponderse con la cantidad de patrones que existen, entonces:

<?xml version="1.0" encoding="UTF-8"?>
<recursos>
  <archivo>
    <patron>6</patron>
    <formato>render3D</formato>
    <contenido>torre_eiffel/eiffel.dae</contenido>
    <descripcion>Torre Eiffel</descripcion>
   </archivo>
   <archivo>
    <patron>16</patron>
    <formato>imagen</formato>
    <contenido>homero.jpg</contenido>
    <descripcion>Homero Simpson</descripcion>
   </archivo> 
</recursos>

La traducción de esto es que un archivo tiene un patron, un formato, un contenido, y una descripción.

  • PATRON: es el archivo que contiene la figura que se va a utilizar para que la aplicación interprete y asocie a un contenido, para luego ser mostrado en pantalla. La aplicación irá acompañada de un PDF con los 100 patrones, que luego los usuarios podrán imprimir y así manipular los distintos recursos cargados sobre la plataforma.
  • FORMATO: esto identifica qué tipo de archivo es. Actualmente la aplicación interpreta los siguientes formatos: imagen (jpg, gif, png), video (swf, flv), audio (mp3), render3D (dae, md2), texto o url.
  • CONTENIDO: indica el archivo (recurso) o texto/url que se va a mostrar con el patrón indicado.
  • DESCRIPCIÓN: simplemente es un texto descriptivo de ese contenido, no figura en ningun otro lado. Puede utilizarse para tener un seguimiento del lado de la programación de los recursos que se van cargando.

 Requisitos para utilizar la aplicación: 

  • Cámara web,
  • Navegador: Chrome, Firefox, Safari, IE9+.
  • Flash 9 o superior

Descargar aplicación (ver 1.1 – 10 de agosto de 2012)

Descargar patrones para imprimir

×

Los comentarios están cerrados.

Últimos artículos

Big Brain Project

Todos somos inventores*

Abrir la caja negra