
Podeis ver esta tecnologia en los siguientes videos, en el primero se muestra su funcionamiento y varias demostraciones, el segundo es del Sony Building de Ginza, en el cual te muestra el plano del edificio y te va guiando por este, el tercero es aplicado aun juego llamdo Catapult y en el ultimo podemos ver un coche en un maqueta.
Aparentemente, esta tecnología es reciente; sin embargo, desde hace más de 30 años los científicos han estado desarrollando prototipos relacionados con su empleo, el primero de ellos, creado por Ivan Sutherland.
De momento los sistemas utilizados se implementan al usuario por medio de visores montados en la cabeza, bien como “gafas” o dispositivos, o por medio de monitores que superponen gráficos y textos a la visión periférica del usuario.
Como plataforma educativa tiene una gran cantidad de aplicaciones ya que puede ser implementada en distintos campos de la vida actual como por ejemplo en museos, medicina, arquitectura, recreación, etc., haciendo más interactiva la adquisición de conocimientos en el área de la educación y permitiendo a las personas modificar el entorno.
En sus inicios, sólo un pequeño grupo de investigadores trabajó en este área debido a los altos costes implicados hasta que, hara unos 10 años aproximadamente, éstos disminuyeron tanto que fue posible abrir laboratorios de investigación Realidad Aumentada en diversos centros universitarios de todo el mundo.
Actualmente los dispositivos utilizados son de dos tipos: transparentes ópticos y transparentes de video. En los primeros, a grosso modo, se utiliza un prisma que refleja los gráficos generados por computadora en la pantalla de cristal líquido, ubicada frente al ojo del usuario, permitiendo que la luz del exterior pase; asi es como los sensores detectan la posición y orientación de la cabeza para ubicarse en el lugar correcto. Por su parte, en los sistemas transparentes de video la formación de las imágenes es muy similar, sólo que el mundo exterior es captado mediante una cámara que muestra, ante el ojo humano, las imágenes reales y virtuales ya fusionadas.
Un ejemplo de esto es ARToolKit, con el que podreis probar esto en vuesrto propio equipo.
Os pongo una cita de la propia pagina que explica el proceso de funcionamiento:
¿Cómo funciona?
Algo muy importante en las aplicaciones de realidad aumentada, es la necesidad de calcular el punto de vista de la cámara, para así poder realizar las operaciones necesarias sobre los objetos virtuales, para que estos se integren correctamente en el mundo real. Es decir, si queremos mostrar objetos virtuales, de modo que el usuario realmente se crea que existen en el mundo real, tendremos que realizar transformaciones sobre esos objetos de modo que el usuario los vea (a través de la cámara o dispositivo de captura utilizado) en la posición, tamaño, orientación e iluminación, en que esos objetos serían percibidos por el usuario en el mundo real en caso de que realmente estuvieran allí.
Para ello se utilizan unas plantillas de forma cuadrada, que se componen de un cuadrado negro con un cuadrado blanco cuatro veces más pequeño en su centro, y un dibujo sencillo en el interior del cuadrado blanco. La aplicación, utilizando las funciones y utilidades proporcionadas por ARToolKit, será capaz de detectar una de estas plantillas en las imágenes de vídeo capturadas.
Aquí se muestra un ejemplo de plantilla:

Una vez detectad a una plantilla en una imagen, estudiando la orientación, posición y tamaño de la plantilla, la aplicación es capaz de calcular la posición y orientación relativa de la cá mara respecto a la plantilla, y usando esta información podrá pasar a dibujar el objeto correspondiente sobre la imagen capturada mediante librerias externas a ART oolKit (por ejemplo GLUT y OpenGL), de modo que el objeto aparezca sob re la plantilla en la posición, orientación y tamaño correspondiente al punto de vista de la cámara, siempre que el programador de la aplicación así lo haya decidido, pues las posibilidades son muchas y pudiera ser que una vez obtenida esta información el programador decidiese utilizarla de otra forma, hacer otras operaciones distintas, etc.
El funcionamiento básico de una aplicación de ARToolkit es el siguiente:
Primero se captura un fotograma del mundo real mediante la cámara.
A continuación la imagen se umbraliza con cierto valor del umbral (threshold), de forma que los pixels cuya intensidad supere el valor del umbral son transformados en pixels de color negro. El resto se transforman en píxels blancos.
Se buscan y encuentran todos los marcos negros como los de la plantilla existentes en la imagen (en realidad al umbralizar la imagen el marco aparece blanco y el cuadrado blanco aparece negro).
Se compara el interior del marco con las plantillas de las que se tiene información almacenada.
Si la forma de la plantilla analizada y la plantilla almacenada coincide, se utiliza la información de tamaño y orientación de la plantilla almacenada para compararla con la plantilla que se ha detectado y así poder calcular la posición y orientación relativas de la camara a la plantilla, y se guarda en una matriz.
Se utiliza esta matriz para establecer la posición y orientación de la cámara virtual (transformación de la vista), lo que equivale a una transformación de las coordenadas del objeto a dibujar.
Al haber puesto la camara virtual en la misma posición y orientación que la camara real, el objeto virtual se dibuja sobre la plantilla, se renderiza y se muestra la imagen resultante, que contiene la imagen del mundo real y el objeto virtual superpuesto, alineado sobre la plantilla.
Se realiza el mismo proceso con los siguientes fotogramas.
El siguiente diagrama muestra el funcionamiento que se acaba de describir:
No hay comentarios:
Publicar un comentario