Aplicación 3-D de la NASA ofrece al público la capacidad de disfrutar viajes espaciales robóticos

3D apple disp. móviles
Imagen: NASA / JPL-Caltech

Una aplicación creada por la NASA que trae algunas de las naves espaciales robóticas de la agencia a la vida en 3D, ahora está disponible gratis en el iPhone y iPad.

Llamada Spacecraft 3D, la aplicación utiliza la animación para mostrar cómo la nave espacial puede maniobrar y manipular sus componentes exteriores. Actualmente, la nueva aplicación dispone de dos misiones de la NASA, el rover Curiosity que se posará en Marte el 5 de agosto a las 10:31 p.m. PDT (6 de agosto a la 1:31 a.m. EDT), y la nave gemela de la mision GRAIL, Ebb y Flow, actualmente en órbita alrededor de la luna.

“Con Spacecraft 3D y un dispositivo móvil, se pueden poner en alta definición, modelos tridimensionales, literalmente, en mano de los niños de todas las edades”, dijo Stephen Kulczycki, subdirector de comunicaciones y educación en el (JPL) Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California.

Spacecraft 3D está entre las primeras de lo que se conoce como aplicaciones de realidad aumentada para dispositivos de Apple. La realidad aumentada ofrece a usuarios una vista de un entorno del mundo real donde los elementos son mejorados por entrada adicional. Spacecraft 3D utiliza la cámara del iPhone o iPad para sobreponer información en la pantalla principal del dispositivo. La aplicación da instrucciones a los usuarios para imprimir un objetivo de realidad aumentada en una hoja de papel estándar. Cuando la cámara del dispositivo está apuntando al blanco, la nave elegida por el usuario se materializa en la pantalla.

“Digamos que usted quiere tener una idea acerca de lo que es nuestro rover Curiosity de Marte” dijo Kevin Hussey, gerente de tecnología de visualización en el JPL. “Al igual que los directores de Hollywood dimensionan sus siguientes tomas, usted mueve iPad o iPhone con cámara equipada dentro y fuera, arriba y abajo, y la perspectiva de la nave espacial se mueve contigo. Es una gran forma de estudiar la naturaleza en 3D de la nave de la NASA”.

Spacecraft 3D también tiene una característica donde usted puede tomar su propia foto de realidad aumentada del rover o nave espacial GRAIL. Incluso se puede hacer un autorretrato con una nave espacial, poniendose a sí mismo o a alguien más en la imagen.

“En un futuro cercano, vamos a incorporar la nave espacial Cassini, que está orbitando Saturno, la nave espacial Dawn, que está en el corazón del cinturón de asteroides, y las Voyagers, que están ahora mismo en el borde de nuestro sistema solar”. dijo Hussey. “Mirando hacia abajo del camino, tenemos un verdadero sistema solar lleno de naves espaciales con las cuales trabajar”.

Spacecraft 3D actualmente sólo está disponible para formatos de Apple, pero estarán disponibles en otros formatos en un futuro cercano.

Los modelos de computadoras detallados de la nave espacial utilizados en Spacecraft 3D fueron generados originalmente para la aplicación web “Ojos en el Sistema Solar” de la NASA. “Ojos en el Sistema Solar” es un entorno en 3D lleno de datos misión de la NASA que permite a cualquier persona explorar el cosmos desde su computadora.

Fuente
http://www.nasa.gov/ (en inglés)

¿Cámaras tridimensionales para celular?, una nueva tecnología podría hacerlas posibles

Informacion Tridimensional
Imagen: flickr/Dominic

Cuando el Kinect de Microsoft – un dispositivo que le permite a los usuarios de Xbox controlar juegos con señas físicas – llegó al mercado, los científicos de computadoras inmediatamente comenzaron a hackearlo. El Kinect, una barra negra de plástico de alrededor de 28 centímetros de ancho y con un buscador infrarrojo de rango y una cámara dentro, produce un mapa visual de la escena ante él, con información sobre la distancia hacia objetos individuales. Tan solo en el MIT (Massachusetts Institute of Technology) los investigadores han utilizado el Kinect para crear una interfaz de computadora al estilo de “Minority Report”, un sistema de navegación para helicópteros robóticos miniatura y un transmisor de video holográfico, entre otras cosas.

Ahora imagina un dispositivo que provee información de profundidad más precisa que el Kinect, tiene un rango mayor y trabaja bajo todas las condiciones de iluminación – pero es tan pequeño, barato y eficiente en su consumo de energía que podría ser incorporado en un teléfono celular por un pequeño costo extra. Ésta es la promesa del trabajo reciente de Vivek Goyal, profesor de Ingeniería Eléctrica, y su grupo en el laboratorio de electrónica del MIT.

“La adquisición de información tridimensional se ha convertido en un tema realmente popular,” dijo Goyal. “En la electrónica para consumidores, la gente está muy interesada en la tercera dimensión para la comunicación inmersiva, pero también están interesados en la tercera dimensión para la interacción humana con computadoras.”

Andrea Colaco, un estudiante graduado del Laboratorio de Medios del MIT y uno de los co-autores en una revista académica que será presentada en la Conferencia Internacional de Acústica, Habla y Procesamiento de Señales del IEEE (Instituto de Ingenieros Eléctricos y Electrónicos) en Marzo, apunta que las interfaces gestuales hacen mucho más fácil que personas múltiples interactúen con una computadora a la vez – como en los juegos de baile que el Kinect ha popularizado.

“Cuando estás hablando de una sola persona y una máquina, ya hemos optimizado la forma en la que lo hacemos,” dice Colaco. “Pero cuando es un grupo, hay menos flexibilidad.”

Ahmed Kirmani, un estudiante graduado en el Departamento de Ingeniería Eléctrica y Ciencia Computacional y otro autor de la revista académica agrega: “Las pantallas tridimensionales están muy avanzadas en términos de tecnología comparadas con las cámaras tridimensionales. Tienes disponibles estas pantallas tridimensionales de alta resolución que tienen tasas de cuadros por segundo en tiempo real.”

“Sentir es siempre difícil,” añade, “y mostrar es fácil.”

Adentrándonos

Al igual que otros sofisticados dispositivos que sienten profundidad, el sistema de los investigadores del MIT utilizan el “tiempo de vuelo” de partículas de luz para medir la profundidad: Un pulso de luz láser infrarrojo es disparado hacia la escena, y la cámara mide el tiempo que le toma a la luz regresar de los objetos a diferentes distancias.

Los sistemas tradicionales de tiempo de vuelo usan uno de dos acercamientos para construir un “mapa de profundidad” de una escena. LIDAR (Light Detection and Ranging – Detección de Luz y Rango) usa un haz láser de escaneo que dispara una serie de pulsos, cada uno corresponde a un punto en una malla, y separadamente mide su tiempo de vuelta. Pero esto hace la adquisición de datos más lenta, y requiere un sistema mecánico para redirigir continuamente el láser. La alternativa, empleada por las llamadas cámaras de tiempo de vuelo, es iluminar toda la escena con pulsos de láser y utilizar un banco de sensores para registrar la luz que regresa. Pero los sensores capaces de distinguir pequeños grupos de partículas de luz – fotones – son caros: Una cámara típica de tiempo de vuelo cuesta miles de dólares.

En contraste, el sistema de los investigadores del MIT utiliza un solo detector de luz – una cámara de un píxel. Pero utilizando trucos matemáticos inteligentes, puede lograr crear el mapa de profundidad de la escena disparando el láser un número limitado de veces.

El primer truco es uno común en el campo de la sensibilidad comprimida: La luz emitida por el láser pasa a través de una serie de patrones de luz y cuadros oscuros generados aleatoriamente, como un tablero de damas irregular. Impresionantemente, esto provee suficiente información para que los algoritmos puedan reconstruir una imagen bi-dimensional visual de las intensidades de la luz medidas por un solo píxel.

En experimentos, los investigadores encontraron que el número de destellos de láser – y el número de patrones del tablero de damas – que necesitaban para construir un mapa de profundidad adecuado era alrededor de 5% el número de píxeles en la imagen final. Un sistema LIDAR, en contraste, necesitaría enviar un pulso de láser por cada píxel.

Para agregar la tercera dimensión crucial al mapa de profundidad, los investigadores usan otra técnica, llamada procesamiento de señal paramétrica. Esencialmente, asumen que todas las superficies de la escena, como sea que estén orientadas con respecto a la cámara, son paneles planos. Aunque esto no es estrictamente verdadero, las matemáticas de la luz que rebota de superficies planas es mucho más sencilla que la de la luz que rebota en superficies curvas. El algoritmo paramétrico de los investigadores encaja la información sobre la luz que regresa al modelo de panel plano que mejor se le ajusta, creando un muy preciso mapa de profundidad con un mínimo de información visual.

Lo barato

De hecho, el algoritmo le permite a los investigadores salirse con la suya aún con hardware relativamente crudo. Su sistema mide el tiempo de vuelo de fotones utilizando un fotodetector barato y un convertidor de análogo a digital ordinario – un componente ya encontrado en todos los teléfonos celulares. Al sensor le toma alrededor de 0.7 nanosegundos registrar un cambio a su entrada.

Eso es tiempo suficiente para que la luz viaje 21 centímetros, dice Goyal. “Entonces para un intervalo de profundidad de 10 y medio centímetros – estoy dividiendo entre dos por que la luz tiene que ir y volver – toda la información se está juntando,” dice. Sin embargo, debido al algoritmo paramétrico, el sistema de los investigadores puede distinguir objetos que solo tienen una diferencia de profundidad de 2 milímetros. “No parecería que se puede obtener toda esta información fuera de esta señal cuando se pone junta,” dice Goyal.

El algoritmo de los desarrolladores es muy sencillo de ejecutar en el tipo de procesadores encontrados ordinariamente en un teléfono inteligente (smartphone). En contraste, para interpretar los datos provistos por el Kinect, el Xbox requiere del poder extra de una unidad de procesamiento gráfico, una poderosa pieza de hardware de propósito específico.

“Ésta es una manera de adquirir información de profundidad completamente nueva,” dice Yue M. Lu, un profesor asistente de ingeniería eléctrica de la Universidad de Harvard. “Es una manera muy inteligente de obtener esta información.” Un obstáculo para el uso del sistema en un dispositivo de mano, especula Lu, podría ser la dificultad de emitir pulsos de luz de la intensidad adecuada sin terminarse la batería.

Pero la intensidad de la luz requerida para obtener lecturas precisas de profundidad es proporcional a la distancia de los objetos en la escena, explica Goyal, y las aplicaciones que sería más probable que resultaran útiles en un dispositivo portátil – como interfaces de gestos – lidian con objetos cercanos. Además, explica, el sistema de los investigadores hace un estimado inicial de la distancia de los objetos y ajusta la intensidad de los pulsos de luz subsecuentes según sea necesario.

En cualquier caso, el gigante de las telecomunicaciones Qualcomm ve la suficiente promesa en la tecnología que ha seleccionado a un equipo formado por Kirmani y Colaco como uno de los ocho ganadores – de 146 que aplicaron a un grupo de universidades selectas – para apoyarlos con USD$100,000 a través de su programa de innovación del 2011.

Fuente:
http://web.mit.edu/ (en inglés)

DAWN se eleva sobre el asteroide Vesta en 3-D

Asteroide Vesta
© NASA / JPL

Se deslizan sobre el asteroide gigante Vesta con la nave espacial Dawn de la NASA en un nuevo video 3-D. Dawn ha estado en órbita alrededor de Vesta desde el 15 de julio, obteniendo imágenes de alta resolución de su superficie llena de baches, cráteres y haciendo otras mediciones científicas.

Las imágenes fueron captadas cuando DAWN se aproximó a Vesta, al mismo tiempo que orbitaba alrededor del asteroide gigante, en su primera órbita científica, conocida como órbita de la encuesta, a una altitud de 1,700 millas (2,700 kilómetros) aproximadamente. El video inicia con una versión global desde el plano de su ecuador, donde se ve una banda misteriosa de crestas y valles lineales.

Si usted quiere saber lo que es explorar un nuevo mundo, como Vesta, este nuevo video les da a todos la oportunidad de ver por sí mismos“, dijo Jaumann. “Los científicos están estudiando detenidamente estas imágenes para conocer más acerca de cómo los cráteres, montañas, surcos y depresiones que vemos fueron creadas“.

El video debe verse con lentes anaglifo (rojo/cian 3d glasses red cyan) para el efecto de 3D:

Fuente:
http://www.nasa.gov/ (en inglés)

Eyes on the Solar System: Un viaje al espacio desde tu navegador

Sistema_solar_3D
Sistema Solar 3D

La NASA nos sorprende nuevamente con sus avances tecnológicos ya que ha desarrollado una aplicación para navegador que permite recorrer el sistema solar en 3D, con una plataforma llamada Eyes on the Solar System, con la que descargando un plugin, se pueden realizar viajes guiados o de manera libre al Sistema Solar en 3D con datos tomados desde la base de la NASA y actualizados en tiempo real por la agencia estadounidense y sus diferentes subdivisiones. La aplicación ha sido creada con la tecnología de un video juego para sentir la sensación de control.

Para comenzar se tiene que descargar el plugin Unity 3D sólo disponible de momento para Windows y Mac OS, una vez instalado, se puede iniciar el viaje en Eye on the Solar System yendo a su sitio web, dentro y sólo en inglés encontrarán invitaciones para visualizar misiones actuales al Sistema Solar o antes ver la introducción, con menús y categorías muy sencillas de usar, pero lo que más ha asombrado es que se puede modificar hora y fecha para recorrer misiones actuales y futuras, así como revivir misiones hechas en el pasado, ver situaciones o experiencias de la nave o satélite en que se viaje, como si de verdad se estuviera en el espacio en cualquier tiempo hora y lugar.

Fuentes:
http://solarsystem.nasa.gov/eyes/ (en inglés)
http://www.neoteo.com/

Teléfonos móviles tomarán fotos en 3D

Xperia Arc S
Sony's Xperia Arc S

Sony pondrá a disposición de los usuarios actualizaciones de software en sus teléfonos móviles Xperia para que puedan tomar fotos en 3D. Esto lo dio a conocer Nikolaus Scheurer, quien es responsable del marketing de los productos Sony Ericsson.

Se tiene la intención de extender la tecnología que emplea el nuevo Xperia Arc S a otros equipos, la cual permite capturar fotos en 3D con una sola lente en vez de con dos objetivos. A partir de Diciembre del presente año estos equipos estarán disponibles en el mercado.

Nikolaus Scheurer informó también que están trabajando en el desarrollo de videojuegos en 3D para sus teléfonos móviles.

Fuente: http://mexico.cnn.com/