Plastic Logic y la animación de video a color en papel electrónico

e-paper
Imagen: Pocket-lint.com

Plastic Logic, una compañía de electrónica de plástico del Reino Unido, ha hecho una demostración de animación de video a color en una pantalla plástica flexible.

Aunque hasta ahora hemos visto como se están popularizando los e-book readers (lectores de libros electrónicos) en todas partes, la innovación de Plastic Logic amplía aún más las posibilidades, pues la compañía comenta que esto es el primer ejemplo de transistores orgánicos de película fina (OTFT) operando a una velocidad de video. La velocidad de reproducción es un tanto baja (12 cuadros por segundo), ya que si se incrementa, se pierde contraste en las imágenes, pero están trabajando para mejorar esto.

De cualquier manera, con esto se pueden lograr dispositivos tipo tablet más sofisticados que los actuales, que puedan mostrar videoclips simples y contenido Flash de sitios web, pero manteniendo un bajo consumo de energía.

El papel electrónico no necesita luz de fondo, pues tiene la misma capacidad de reflejar luz que el papel común. Además es ligero, delgado, flexible, resistente y únicamente gasta energía cuando tiene que actualizar la pantalla. Es verdad que al reproducir videos se requiere actualizar constantemente, pero aún así, el consumo de energía sigue siendo menor que el de una pantalla equivalente con retroiluminación LCD.

Plastic Logic también mostró que el papel electrónico puede emplearse como accesorio de smartphones, permitiendo transmitir inalámbricamente en segundos imágenes y otros archivos a una pantalla de papel electrónico para visualizarlos en un mayor tamaño.

Actualmente la compañía trabaja junto con varias empresas de smartphones para desarrollar este concepto y está llevando a cabo una investigación colaborativa y desarrollos relacionados con electrónica, fotónica y sistemas eléctricos.

Referencia
http://news.techworld.com/ (en inglés)

Investigadores amplifican variaciones en video, haciendo lo invisible visible

Nuevo software amplifica cambios en cambios sucesivos de video que son demasiado sutiles para el ojo desnudo.

Larry Hardesty, MIT News Office. Original (en inglés).

En estos cuadros de video, un nuevo algoritmo amplifica el casi imperceptible cambio en el color de la piel causado por el bombeo de sangre.
En estos cuadros de video, un nuevo algoritmo amplifica el casi imperceptible cambio en el color de la piel causado por el bombeo de sangre.
Imagen: Michael Rubinstein

En la conferencia Siggraph de este verano – la conferencia principal de gráficos computacionales – investigadores del Laboratorio de Ciencia Computacional e Inteligencia Artificial (CSAIL – Computer Science and Artificial Intelligence Laboratory) del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts), presentarán nuevo software que amplifica variaciones en cuadros sucesivos de video que son imperceptibles al ojo desnudo. Así que, por instancia, el software hace posible “ver” el pulso de alguien, ya que la piel se enrojece y palidece con el flujo sanguíneo, y puede exagerar pequeños movimientos, haciendo visibles las vibraciones de cuerdas de guitarra individuales o el respirar de un bebé en la unidad neonatal de cuidado intensivo.

El sistema es similar a un equalizador en un sistema de sonido estéreo, que amplifica algunas frecuencias y corta otras, excepto que la frecuencia pertinente es la frecuencia de cambios de color en una secuencia de cuadros de video, no la frecuencia de una señal de audio. El prototipo de el software permite al usuario especificar el rango de frecuencias de interés y el grado de amplificación. El software trabaja en tiempo real y muestra el video original y la versión alterada del video, con cambios magnificados.

Aunque la técnica se presta naturalmente a fenómenos que recurren a intérvalos regulares – como el latir de un corazón, el movimiento de una cuerda vibrante o el inflado de los pulmones – si el rango de frecuencias es lo suficientemente amplio, el sistema puede amplificar los cambios que ocurren solo una vez. Así que, por instancia, podría ser utilizado para comparar diferentes imágenes de la misma escena, permitiendo que el usuario fácilmente elija cambios que podrían pasar desapercibidos de otra manera. En un grupo de experimentos, el sistema pudo amplicar dramáticamente el movimiento de sombras en una escena de calle fotografiada solo dos veces, a un intérvalo de alrededor de 15 segundos.

Accidente feliz

Los investigadores del MIT – el estudiante graduado Michael Rubinstein, los recientes alumnos Hao-Yu Wu y Eugene Shih, y el profesor William Freeman, Fredo Durand y John Guttag – intentaban que el sistema amplificara cambios de color, pero en sus experimentos iniciales, encontraron que también amplificaba el movimiento. “Comenzamos amplificando el color, y notamos que con este buen efecto, también el movimiento fue amplificado”, dice Rubinstein. “Así que volvimos, encontramos exactamente que sucedía, lo estudiamos bien, y vimos como incorporar eso para hacer una mejor amplificación de movimiento”.

Usar el sistema para amplificar movimiento en lugar de color requiere un diferente tipo de filtrado, y funciona bien solo si los movimientos son relativamente pequeños. Pero por supuesto, esos son exactamente los movimientos cuya amplificación sería de interés.

Rubinstein puede visualizar que, entre otras aplicaciones, el sistema podría ser usado para “monitoreo sin contacto” de los signos vitales de pacientes de hospital. Aumentar un grupo de frecuencias permitiría medir las tasas de pulsaciones, por medio de pequeños cambios en la coloración de la piel; aumentando otro grupo de frecuencias permitiría monitorear la respiración. El acercamiento podría ser particularmente útil con bebés que nacen prematuramente o requieren atención médica temprana. “Sus cuerpos son tan frágiles, que quieres ponerles tan pocos sensores como sea posible”, dice Rubinstein.

Similarmente, dice Rubinstein, el sistema podría ser usado para aumentar el video de monitores de bebé, caseros, así que la respiración de bebés durmiendo sería claramente visible. Siendo un padre el mismo, Rubinstein dice que el y su esposa equiparon la cuna de su hija con sensores de presión comerciales con la intención de medir el movimiento y calmar a padres ansiosos de que sus hijos siguen respirando. “Esos son caros”, dice Rubinstein, “y algunas personas realmente se quejan de recibir falsos positivos con ellos. Así que realmente puedo ver como este tipo de técnica podrá funcionar mejor”.

En su artículo, los investigadores describen experimentos en los que comenzaron a investigar ambas aplicaciones. Pero desde que comenzaron a dar conferencias sobre el trabajo, dice Rubinstein, sus colegas han propuesto un rango de otros usos posibles, desde imágenes laparoscópicas de órganos internos, hasta sistemas de vigilancia de gran alcance que magnifiquen movimientos sutiles, a detectores de mentiras sin contacto basados en la tasa de pulsaciones.

“Es un resultado fantástico,” dice Maneesh Agrawala, un profesor asociado en el departamento de Ingeniería Eléctrica y Ciencia Computacional en la Universidad de California en Berkeley, y director del Laboratorio de Visualización del departamento. Agrawala apunta que Freeman y Durand fueron parte del equipo de investigadores del MIT que hicieron ruido en la conferencia Siggraph del 2005 con un artículo sobre la amplificación de movimientos en video. “Este acercamiento es más simple y te permite ver algunas cosas que no podías ver con el acercamiento anterior”, dice Agrawala. “La simplicidad del acercamiento lo vuelve en algo que tiene la posibilidad de aplicación en un gran número de lugares. Creo que veremos a mucha gente implementándolo por que es muy sencillo”.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Video a un billón de fotogramas por segundo captura el desplazamiento de la luz

Cámara Streak
Imagen: M. Scott Brauer

Los investigadores del MIT han creado un nuevo sistema de imágenes con el que se pueden adquirir datos visuales a un ritmo de un billón de exposiciones por segundo. Eso es lo suficientemente rápido como para producir un video en cámara lenta de una descarga de luz que viaja a lo largo de una botella de un litro, rebotando en la tapa y reflejando de nuevo al fondo de la botella.

Andreas Velten, uno de los desarrolladores del sistema, lo llama lo “último” en cámara lenta: “No hay nada en el universo que parezca rápido a la cámara”, dice.

El sistema se basa en una tecnología reciente llamada cámara streak, desplegado de una manera totalmente inesperada. La apertura de la cámara de streak es una rendija estrecha. Las partículas de luz – fotones – entran en la cámara a través de la rendija y pasan a través de un campo eléctrico que los desvía en una dirección perpendicular a la ranura. Debido a que el campo eléctrico está cambiando muy rápidamente, los fotones que llegan más tarde se desvían más que los que llegan primero.

La imagen producida por la cámara es de dos dimensiones, pero sólo una de las dimensiones – la correspondiente a la dirección de la rendija – es espacial. La otra dimensión, que corresponde al grado de deflexión, es el tiempo. La imagen por lo tanto representa, el momento de la llegada de los fotones que pasan a través de una porción de una dimensión del espacio.

La cámara fue diseñada para ser utilizada en los experimentos donde la luz pasa a través de o es emitida por una muestra de productos químicos. Dado que los químicos son los principales interesados en las longitudes de onda de luz que absorbe una muestra o en la forma de la intensidad de los cambios de la luz emitida a través del tiempo, el hecho de que la cámara registra sólo una dimensión espacial es irrelevante.

Pero es un serio inconveniente en una cámara de vídeo. Para producir sus videos en super-cámara-lenta, Velten, profesor asociado de Media Lab., Ramesh Raskar y Moungi Bawendi, profesor de Química de Lester Wolfe, debe realizar el mismo experimento – pasar un pulso de luz a través de una botella – una y otra vez, reposicionando continuamente la cámara streak para construir gradualmente una imagen de dos dimensiones. Sincronizar la cámara y el láser que genera el pulso, para que el tiempo de cada exposición sea la misma, requiere una gran cantidad de equipo óptico sofisticado y exquisito control mecánico. Toma solo un nanosegundo -una mil millonésima de segundo- para que la luz se disperse a través de una botella, pero se lleva alrededor de una hora para recopilar todos los datos necesarios para el video final. Por esa razón, Raskar llama al nuevo sistema la cámara rápida más lenta del mundo.

Analizando las matemáticas

Después de una hora, los investigadores acumulan cientos de miles de conjuntos de datos, cada una grafica las posiciones de una dimensión de fotones en contra de su tiempo de llegada. Raskar, Velten y otros miembros del grupo de Cultura de cámara Raskar en el Media Lab han desarrollado unos algoritmos que pueden unir los datos en bruto en una serie secuencial de imágenes de dos dimensiones.

La cámara streak y el láser que genera los pulsos de luz – ambos los dispositivos de última generación con un precio acumulado de 250.000 dólares – fueron proporcionados por Bawendi, un pionero en la investigación sobre los puntos cuánticos: pequeños racimos de partículas semiconductoras emisoras de luz que tienen aplicaciones potenciales en la computación cuántica, video-tecnología de pantalla, imágenes biológicas, células solares y una serie de otras áreas.

El billón de cuadros por segundo del sistema de imágenes, que los investigadores han presentado tanto en el cómputo de detección óptica de la Optical Society y la conferencia de imagen y de Siggraph, es una variación de otro proyecto de Cultura de cámara, una cámara que puede ver en las esquinas. Dicha cámara hace rebotar la luz en una superficie reflectante – por ejemplo, la pared de enfrente de una puerta – y midiendo el tiempo que tardan en regresar los fotones diferentes. Pero mientras ambos sistemas utilizan ráfagas ultracortas de luz láser y cámaras streak, la disposición de sus otros componentes ópticos y sus algoritmos de reconstrucción se adaptan a sus tareas dispares.

Debido a que el sistema ultrarrápido de imágenes requiere de múltiples pasos para producir sus videos, no puede registrar los eventos que no son exactamente repetibles. Las aplicaciones prácticas probablemente involucrarán los casos donde la forma en la que la luz se dispersa – o rebota alrededor cuando golpea superficies diferentes – es en sí misma una fuente de información útil. Sin embargo esos casos podrían incluir el análisis de la estructura física de materiales de fabricación y los tejidos biológicos – “como ultrasonido con luz”, como lo pone Raskar.

Como investigador de cámaras durante mucho tiempo, Raskar también ve una aplicación potencial en el desarrollo de mejores flashes de las cámaras. “Un último sueño es, ¿cómo se crea un estudio de la iluminación de una Compact Flash? ¿Cómo puedo llevar una cámara portátil que tiene un flash pequeño y crear la ilusión de que tengo todos estos paraguas, y las luces del deporte, y así sucesivamente?” pregunta Raskar, profesor asociado del desarrollo de la carrera del NEC, de Media Arts and Sciences.
“Con nuestra imagen ultrarrápida, en realidad podemos analizar actualmente cómo los fotones están viajando a través del mundo. Y luego podemos recrear una nueva foto, creando la ilusión de que los fotones comenzaron en otro lugar”.

“Es un trabajo muy interesante”. “Estoy muy impresionado”, dice Nils Abramson, un profesor de holografía aplicada en el Royal Sweden Institute of Technology. A finales de 1970, Abramson fue pionero de una técnica llamada holografía de luz en vuelo, que finalmente demostró ser capaz de capturar imágenes de las ondas de luz a una velocidad de 100 mil millones de fotogramas por segundo.

Sin embargo, como señala Abramson, su técnica requiere lo denominado luz coherente, lo que significa que las depresiones y crestas de las ondas de luz que producen la imagen tienen que alinearse unas con otras. “Si destruyes la coherencia cuando la luz está pasando a través de diferentes objetos, entonces no funciona”, dice Abramson. “Así que creo que es mucho mejor si usted puede usar la luz ordinaria, lo que hace Ramesh”.

De hecho, Velten dice: “Como los fotones rebotan en los objetos de la escena o en el interior, pierden la coherencia. Sólo un método de detección incoherente como el nuestro puede ver los fotones.” Y los fotones, Velten dice, podrían dejar que los investigadores “aprendan más sobre las propiedades del material de los objetos, sobre lo que está bajo su superficie y sobre el diseño de la escena. Porque podemos ver esos fotones, podríamos utilizarlos para observar el interior de los objetos -por ejemplo, para las imágenes médicas, o para identificar los materiales “.

“Estoy sorprendido de que el método que hemos estado utilizando no ha sido más popular”, añade Abramson. “Me he sentido bastante solo. Estoy muy contento de que alguien más está haciendo algo similar. Porque creo que hay muchas cosas interesantes por encontrar cuando se hace este estudio sobre la luz misma”.

Fuente:
http://web.mit.edu/ (en inglés)