TAREAS BÁSICAS DE UN SISTEMA DE RA
Según Mazen (2012) se debe
ejecutar de manera secuencial cuatro tareas para todo sistema de Realidad
Aumentada. En la figura 1 se muestra la secuencia de las diferentes tareas.
Figura 1. -
Tareas de un sistema de Realidad Aumentada.
1.
Captura del escenario
Para realizar las capturas de
escenarios se utilizan cámaras de video o dispositivos GPS (Global Positioning
System).
De forma
breve, los dispositivos de captura de video se pueden agrupar en:
-
Video-through:
se encuentran separados de los dispositivos de visualización.
-
See-through:
la visualización se realiza en el mismo dispositivo que realiza la captura, por
ejemplo los Smartphone, los Head Mounted Display, por mencionar algunos.
2.
Identificación de la escena
Mazen (2012) divide la identificación de
escenas en tres métodos:
a. Primer método, llamado visual, la
posición de "marcadores", que son señales visuales, se
"ven" con una cámara en un ordenador o dispositivo móvil. El marcador
es interpretado por el software, que trae la información en respuesta a los
puntos físicos de referencia. Estos puntos (marcadores) se utilizan para
interpretar la ubicación exacta del dispositivo, y la naturaleza de los objetos
en su campo de visión.
b. Segundo método, se utilizan
técnicas de visión artificial para reconocer una escena. Tienen una mayor
potencia de reconocimiento, pero se necesitan altos cálculos y memoria, con
elevados tiempos de procesamiento. Su utilización esta poca extendida en
sistemas de RA.
c. Tercer método se utiliza la
técnica de geoposicionamiento, es la técnica más utilizada en dispositivos
móviles, a través del GPS1, se estima la posición y orientación del
dispositivo.
El
dispositivo envía a un servidor su posición absoluta, éste devuelve la
información sobre los objetos próximos que se encuentren cerca de él. El
dispositivo calcula su orientación y escoge el objeto a aumentar, produciéndose
el mezclado y visualización
3. Fusión de la realidad con objetos sintéticos
Consiste
en superponer a la escena real, ya reconocida, la información digital asociada
a ella; existen muchas librerías que permiten llevar a cabo esta tarea, como:
ARToolkit, Metaio SDKs, Vuforia, ArUco, Beyond Reality Face y DroidAR.
Cada una de éstas, tienen diferentes licencias de uso, se ejecutan sobre
diferentes plataformas y tienen distintas características. Es decir, algunas se
aplican específicamente para la técnica de geoposicionamiento, otras para
seguimiento facial, otras sólo reconocen marcadores, y así siguiendo.
4.
Visualización de la escena
aumentada
En la
visualización de la escena aumentada, se muestra al usuario la escena original
junto con la información digital de aumento. El mundo real aumentado puede
verse de tres maneras diferentes:
a.
Las
imágenes sintéticas pueden proyectarse sobre los objetos reales y el usuario
visualiza la escena normalmente, sin ningún dispositivo especial.
b.
La
combinación imágenes sintéticas y reales puede proyectarse sobre una pantalla o
gafas especiales “see-through” o “video-see-through”, que le permitan al
usuario la visión del mundo real aumentado
c.
La
combinación de imágenes sintéticas y reales puede verse a través de una
pantalla de un dispositivo móvil como un PDA o un teléfono móvil.
Comentarios
Publicar un comentario