¿Cámaras tridimensionales para celular?, una nueva tecnología podría hacerlas posibles

Informacion Tridimensional
Imagen: flickr/Dominic

Cuando el Kinect de Microsoft – un dispositivo que le permite a los usuarios de Xbox controlar juegos con señas físicas – llegó al mercado, los científicos de computadoras inmediatamente comenzaron a hackearlo. El Kinect, una barra negra de plástico de alrededor de 28 centímetros de ancho y con un buscador infrarrojo de rango y una cámara dentro, produce un mapa visual de la escena ante él, con información sobre la distancia hacia objetos individuales. Tan solo en el MIT (Massachusetts Institute of Technology) los investigadores han utilizado el Kinect para crear una interfaz de computadora al estilo de “Minority Report”, un sistema de navegación para helicópteros robóticos miniatura y un transmisor de video holográfico, entre otras cosas.

Ahora imagina un dispositivo que provee información de profundidad más precisa que el Kinect, tiene un rango mayor y trabaja bajo todas las condiciones de iluminación – pero es tan pequeño, barato y eficiente en su consumo de energía que podría ser incorporado en un teléfono celular por un pequeño costo extra. Ésta es la promesa del trabajo reciente de Vivek Goyal, profesor de Ingeniería Eléctrica, y su grupo en el laboratorio de electrónica del MIT.

“La adquisición de información tridimensional se ha convertido en un tema realmente popular,” dijo Goyal. “En la electrónica para consumidores, la gente está muy interesada en la tercera dimensión para la comunicación inmersiva, pero también están interesados en la tercera dimensión para la interacción humana con computadoras.”

Andrea Colaco, un estudiante graduado del Laboratorio de Medios del MIT y uno de los co-autores en una revista académica que será presentada en la Conferencia Internacional de Acústica, Habla y Procesamiento de Señales del IEEE (Instituto de Ingenieros Eléctricos y Electrónicos) en Marzo, apunta que las interfaces gestuales hacen mucho más fácil que personas múltiples interactúen con una computadora a la vez – como en los juegos de baile que el Kinect ha popularizado.

“Cuando estás hablando de una sola persona y una máquina, ya hemos optimizado la forma en la que lo hacemos,” dice Colaco. “Pero cuando es un grupo, hay menos flexibilidad.”

Ahmed Kirmani, un estudiante graduado en el Departamento de Ingeniería Eléctrica y Ciencia Computacional y otro autor de la revista académica agrega: “Las pantallas tridimensionales están muy avanzadas en términos de tecnología comparadas con las cámaras tridimensionales. Tienes disponibles estas pantallas tridimensionales de alta resolución que tienen tasas de cuadros por segundo en tiempo real.”

“Sentir es siempre difícil,” añade, “y mostrar es fácil.”

Adentrándonos

Al igual que otros sofisticados dispositivos que sienten profundidad, el sistema de los investigadores del MIT utilizan el “tiempo de vuelo” de partículas de luz para medir la profundidad: Un pulso de luz láser infrarrojo es disparado hacia la escena, y la cámara mide el tiempo que le toma a la luz regresar de los objetos a diferentes distancias.

Los sistemas tradicionales de tiempo de vuelo usan uno de dos acercamientos para construir un “mapa de profundidad” de una escena. LIDAR (Light Detection and Ranging – Detección de Luz y Rango) usa un haz láser de escaneo que dispara una serie de pulsos, cada uno corresponde a un punto en una malla, y separadamente mide su tiempo de vuelta. Pero esto hace la adquisición de datos más lenta, y requiere un sistema mecánico para redirigir continuamente el láser. La alternativa, empleada por las llamadas cámaras de tiempo de vuelo, es iluminar toda la escena con pulsos de láser y utilizar un banco de sensores para registrar la luz que regresa. Pero los sensores capaces de distinguir pequeños grupos de partículas de luz – fotones – son caros: Una cámara típica de tiempo de vuelo cuesta miles de dólares.

En contraste, el sistema de los investigadores del MIT utiliza un solo detector de luz – una cámara de un píxel. Pero utilizando trucos matemáticos inteligentes, puede lograr crear el mapa de profundidad de la escena disparando el láser un número limitado de veces.

El primer truco es uno común en el campo de la sensibilidad comprimida: La luz emitida por el láser pasa a través de una serie de patrones de luz y cuadros oscuros generados aleatoriamente, como un tablero de damas irregular. Impresionantemente, esto provee suficiente información para que los algoritmos puedan reconstruir una imagen bi-dimensional visual de las intensidades de la luz medidas por un solo píxel.

En experimentos, los investigadores encontraron que el número de destellos de láser – y el número de patrones del tablero de damas – que necesitaban para construir un mapa de profundidad adecuado era alrededor de 5% el número de píxeles en la imagen final. Un sistema LIDAR, en contraste, necesitaría enviar un pulso de láser por cada píxel.

Para agregar la tercera dimensión crucial al mapa de profundidad, los investigadores usan otra técnica, llamada procesamiento de señal paramétrica. Esencialmente, asumen que todas las superficies de la escena, como sea que estén orientadas con respecto a la cámara, son paneles planos. Aunque esto no es estrictamente verdadero, las matemáticas de la luz que rebota de superficies planas es mucho más sencilla que la de la luz que rebota en superficies curvas. El algoritmo paramétrico de los investigadores encaja la información sobre la luz que regresa al modelo de panel plano que mejor se le ajusta, creando un muy preciso mapa de profundidad con un mínimo de información visual.

Lo barato

De hecho, el algoritmo le permite a los investigadores salirse con la suya aún con hardware relativamente crudo. Su sistema mide el tiempo de vuelo de fotones utilizando un fotodetector barato y un convertidor de análogo a digital ordinario – un componente ya encontrado en todos los teléfonos celulares. Al sensor le toma alrededor de 0.7 nanosegundos registrar un cambio a su entrada.

Eso es tiempo suficiente para que la luz viaje 21 centímetros, dice Goyal. “Entonces para un intervalo de profundidad de 10 y medio centímetros – estoy dividiendo entre dos por que la luz tiene que ir y volver – toda la información se está juntando,” dice. Sin embargo, debido al algoritmo paramétrico, el sistema de los investigadores puede distinguir objetos que solo tienen una diferencia de profundidad de 2 milímetros. “No parecería que se puede obtener toda esta información fuera de esta señal cuando se pone junta,” dice Goyal.

El algoritmo de los desarrolladores es muy sencillo de ejecutar en el tipo de procesadores encontrados ordinariamente en un teléfono inteligente (smartphone). En contraste, para interpretar los datos provistos por el Kinect, el Xbox requiere del poder extra de una unidad de procesamiento gráfico, una poderosa pieza de hardware de propósito específico.

“Ésta es una manera de adquirir información de profundidad completamente nueva,” dice Yue M. Lu, un profesor asistente de ingeniería eléctrica de la Universidad de Harvard. “Es una manera muy inteligente de obtener esta información.” Un obstáculo para el uso del sistema en un dispositivo de mano, especula Lu, podría ser la dificultad de emitir pulsos de luz de la intensidad adecuada sin terminarse la batería.

Pero la intensidad de la luz requerida para obtener lecturas precisas de profundidad es proporcional a la distancia de los objetos en la escena, explica Goyal, y las aplicaciones que sería más probable que resultaran útiles en un dispositivo portátil – como interfaces de gestos – lidian con objetos cercanos. Además, explica, el sistema de los investigadores hace un estimado inicial de la distancia de los objetos y ajusta la intensidad de los pulsos de luz subsecuentes según sea necesario.

En cualquier caso, el gigante de las telecomunicaciones Qualcomm ve la suficiente promesa en la tecnología que ha seleccionado a un equipo formado por Kirmani y Colaco como uno de los ocho ganadores – de 146 que aplicaron a un grupo de universidades selectas – para apoyarlos con USD$100,000 a través de su programa de innovación del 2011.

Fuente:
http://web.mit.edu/ (en inglés)

Patrones de conexiones revelan funciones cerebrales

Reconocimiento de caras en la circunvolución fusiforme
Imagen: Christine Daniloff

Por más de una década, neurocientíficos han sabido que muchas de las células en una región del cerebro llamada la circunvolución fusiforme se especializan en reconocer caras. Sin embargo, esas células no actúan solas: Necesitan comunicarse con otras partes del cerebro. Rastreando esas conexiones, neurocientíficos del MIT (Instituto Tecnológico de Massachusetts) han demostrado como pueden predecir precisamente que partes de la circunvolución fusiforme seleccionan las caras.

El estudio, que apareció en la publicación “Nature Neuroscience” (Neurociencia natural) del 25 de Diciembre, es el primero en vincular la conectividad de una región del cerebro con su función. No hay dos personas que tengan la misma estructura de la circunvolución fusiforme exacta, pero utilizando patrones de conectividad, los investigadores pueden ahora determinar precisamente que partes de la circunvolución fusiforme de un individuo están involucradas en el reconocimiento de caras.

Utilizando esta aproximación, los científicos podrían aprender más sobre las deficiencias en el reconocimiento de caras que comúnmente se ven en el autismo y en la prosopagnosia, un trastorno causado por un infarto. Este método también podría utilizarse para determinar las relaciones entre estructura y función en otras partes del cerebro.

Para determinar el mapa de los patrones de conectividad del cerebro, los investigadores usaron una técnica llamada difusión por peso (diffusion-weighted imaging), la cual está basada en la resonancia magnética. Un campo magnético aplicado al cerebro de la persona provoca que el agua en el cerebro fluya en la misma dirección. Sin embargo, donde se encuentren axones – las largas extensiones celulares que conectan una neurona a otras regiones del cerebro – el agua es forzada a fluir junto con el axón, en lugar de cruzarlo. Esto es por que los axones están recubiertos con un material graso llamado mielina, el cual es impermeable al agua.

Al aplicar el campo magnético en muchas direcciones diferentes y observar en que dirección fluye el agua, los investigadores pueden identificar las posiciones de los axones y determinar que regiones del cerebro están conectando.

Los investigadores encontraron que ciertas áreas de la circunvolución fusiforme estaban fuertemente conectadas a regiones del cerebro que también se sabe que están involucradas en el reconocimiento de caras, incluyendo las cortezas temporales superior e inferior. Esas áreas de la circunvolución fusiforme también estuvieron muy activas cuando los sujetos realizaban tareas de reconocimiento de caras.

Circunvolución fusiforme
Circunvolución fusiforme.

Basados en los resultados de un grupo de sujetos, los investigadores crearon un modelo que predice funcionalidad en la circunvolución fusiforme basado solamente en los patrones de conectividad observados. En un segundo grupo de sujetos, encontraron que el modelo predijo exitosamente que áreas de la circunvolución fusiforme responderían a las caras.

Los investigadores del MIT están ahora expandiendo sus estudios de conectividad a otras regiones del cerebro y a otras funciones visuales, como el reconocimiento de objetos y escenas, así como caras. Se espera que estos estudios también ayuden a revelar algunos de los mecanismos de como se procesa la información en cada punto conforme fluye a través del cerebro.

Fuente:
web.mit.edu (en inglés)

Neurocientíficos identifican un controlador maestro de la memoria

Yingxi Lin
Yingxi Lin. Foto: Kent Dayton

Cuando experimentas un nuevo evento, tu cerebro codifica una memoria de este alterando la conexión entre neuronas. Esto requiere la activación de muchos genes en esas neuronas. Ahora, neurocientíficos del MIT (Instituto Tecnológico de Massachusetts) han identificado lo que podría ser un gen maestro que controla este proceso complejo. El descubrimiento no solo revela algunos de los procesos moleculares de la formación de memorias – podrían incluso ayudar a los neurocientíficos a identificar el punto exacto de las memorias en el cerebro.

El equipo de investigación, liderado por Yingxi Lin, un miembro del Instituto McGovern para la Investigación del Cerebro en el MIT, se enfocó en el gen Npas4, el cual previos estudios han mostrado encendiéndose inmediatamente después de nuevas experiencias. El gen es activo particularmente en el hipocampo, una estructura cerebral que se sabe que es crítica en la formación de memorias de largo término.

Lin y sus colegas encontraron que Npas4 enciende una serie de otros genes que modifican el cableado interno del cerebro al ajustar la fuerza de las sinapsis (conexiones entre neuronas). “Este es un gen que puede conectar desde la experiencia hasta el cambio eventual del circuito,” dice Lin.

Fuente:
web.mit.edu (en inglés)

Software del MIT permite realizar operaciones en bases de datos cifradas

Candado
Imagen: pachd.com

CryptDB, un software de base de datos que los investigadores del MIT presentaron en octubre en el Simposio de Principios de Sistemas Operativos, permite a los usuarios enviar peticiones a una base de datos SQL cifrada y obtener resultados sin descifrar la información almacenada. CryptDB anida los datos en varias capas de cifrado, cada una de las cuales tiene una llave diferente y permite un diferente tipo de operación simple en los datos cifrados. No trabaja con todos los tipos de cálculos, y no es el primer sistema en ofrecer este tipo de operación sobre datos cifrados, pero podría ser el único práctico, ya que un esquema previo que permitía operaciones en datos cifrados multiplicaba el tiempo de procesamiento por un factor de un billón. Este solo agrega un 15% a 26% al tiempo de operación.

Esto es una necesidad para poder manejar datos delicados de empresas o gobiernos en la nube, ya que permitiría proteger los datos de ser robados y hasta de administradores curiosos al resolver el problema que existe con los datos cifrados de que no se puede hacer ninguna operación sobre ellos sin descifrarlos previamente, lo que vuelve imposible el poder procesar datos en computadoras remotas donde no existe confianza y que sin embargo son utilizadas para almacenar esta información.

A este tipo de cifrado se le conoce como “cifrado homomórfico completo”, y fué teórico hasta el año 2009 cuando Craig Gentry logró crearlo pero con esa desventaja de multiplicar el tiempo de operaciones hasta un nivel impráctico. Ahora los científicos del MIT patrocidanos por Google y Citigroup, parecen haber creado esta implementación práctica. Con este tipo de cifrado, una persona puede cifrar sus datos en cadenas de texto o en números indescifrables, pero sobre los que se pueden realizar operaciones, y obtener un resultado, también cifrado. Este resultado descifrado coincidiría con el resultado de hacer la misma operación sobre los datos si hubieran estado descifrados.

Fuentes:
www.forbes.com (in inglés)
Revista académica del MIT (en inglés)

Video a un billón de fotogramas por segundo captura el desplazamiento de la luz

Cámara Streak
Imagen: M. Scott Brauer

Los investigadores del MIT han creado un nuevo sistema de imágenes con el que se pueden adquirir datos visuales a un ritmo de un billón de exposiciones por segundo. Eso es lo suficientemente rápido como para producir un video en cámara lenta de una descarga de luz que viaja a lo largo de una botella de un litro, rebotando en la tapa y reflejando de nuevo al fondo de la botella.

Andreas Velten, uno de los desarrolladores del sistema, lo llama lo “último” en cámara lenta: “No hay nada en el universo que parezca rápido a la cámara”, dice.

El sistema se basa en una tecnología reciente llamada cámara streak, desplegado de una manera totalmente inesperada. La apertura de la cámara de streak es una rendija estrecha. Las partículas de luz – fotones – entran en la cámara a través de la rendija y pasan a través de un campo eléctrico que los desvía en una dirección perpendicular a la ranura. Debido a que el campo eléctrico está cambiando muy rápidamente, los fotones que llegan más tarde se desvían más que los que llegan primero.

La imagen producida por la cámara es de dos dimensiones, pero sólo una de las dimensiones – la correspondiente a la dirección de la rendija – es espacial. La otra dimensión, que corresponde al grado de deflexión, es el tiempo. La imagen por lo tanto representa, el momento de la llegada de los fotones que pasan a través de una porción de una dimensión del espacio.

La cámara fue diseñada para ser utilizada en los experimentos donde la luz pasa a través de o es emitida por una muestra de productos químicos. Dado que los químicos son los principales interesados en las longitudes de onda de luz que absorbe una muestra o en la forma de la intensidad de los cambios de la luz emitida a través del tiempo, el hecho de que la cámara registra sólo una dimensión espacial es irrelevante.

Pero es un serio inconveniente en una cámara de vídeo. Para producir sus videos en super-cámara-lenta, Velten, profesor asociado de Media Lab., Ramesh Raskar y Moungi Bawendi, profesor de Química de Lester Wolfe, debe realizar el mismo experimento – pasar un pulso de luz a través de una botella – una y otra vez, reposicionando continuamente la cámara streak para construir gradualmente una imagen de dos dimensiones. Sincronizar la cámara y el láser que genera el pulso, para que el tiempo de cada exposición sea la misma, requiere una gran cantidad de equipo óptico sofisticado y exquisito control mecánico. Toma solo un nanosegundo -una mil millonésima de segundo- para que la luz se disperse a través de una botella, pero se lleva alrededor de una hora para recopilar todos los datos necesarios para el video final. Por esa razón, Raskar llama al nuevo sistema la cámara rápida más lenta del mundo.

Analizando las matemáticas

Después de una hora, los investigadores acumulan cientos de miles de conjuntos de datos, cada una grafica las posiciones de una dimensión de fotones en contra de su tiempo de llegada. Raskar, Velten y otros miembros del grupo de Cultura de cámara Raskar en el Media Lab han desarrollado unos algoritmos que pueden unir los datos en bruto en una serie secuencial de imágenes de dos dimensiones.

La cámara streak y el láser que genera los pulsos de luz – ambos los dispositivos de última generación con un precio acumulado de 250.000 dólares – fueron proporcionados por Bawendi, un pionero en la investigación sobre los puntos cuánticos: pequeños racimos de partículas semiconductoras emisoras de luz que tienen aplicaciones potenciales en la computación cuántica, video-tecnología de pantalla, imágenes biológicas, células solares y una serie de otras áreas.

El billón de cuadros por segundo del sistema de imágenes, que los investigadores han presentado tanto en el cómputo de detección óptica de la Optical Society y la conferencia de imagen y de Siggraph, es una variación de otro proyecto de Cultura de cámara, una cámara que puede ver en las esquinas. Dicha cámara hace rebotar la luz en una superficie reflectante – por ejemplo, la pared de enfrente de una puerta – y midiendo el tiempo que tardan en regresar los fotones diferentes. Pero mientras ambos sistemas utilizan ráfagas ultracortas de luz láser y cámaras streak, la disposición de sus otros componentes ópticos y sus algoritmos de reconstrucción se adaptan a sus tareas dispares.

Debido a que el sistema ultrarrápido de imágenes requiere de múltiples pasos para producir sus videos, no puede registrar los eventos que no son exactamente repetibles. Las aplicaciones prácticas probablemente involucrarán los casos donde la forma en la que la luz se dispersa – o rebota alrededor cuando golpea superficies diferentes – es en sí misma una fuente de información útil. Sin embargo esos casos podrían incluir el análisis de la estructura física de materiales de fabricación y los tejidos biológicos – “como ultrasonido con luz”, como lo pone Raskar.

Como investigador de cámaras durante mucho tiempo, Raskar también ve una aplicación potencial en el desarrollo de mejores flashes de las cámaras. “Un último sueño es, ¿cómo se crea un estudio de la iluminación de una Compact Flash? ¿Cómo puedo llevar una cámara portátil que tiene un flash pequeño y crear la ilusión de que tengo todos estos paraguas, y las luces del deporte, y así sucesivamente?” pregunta Raskar, profesor asociado del desarrollo de la carrera del NEC, de Media Arts and Sciences.
“Con nuestra imagen ultrarrápida, en realidad podemos analizar actualmente cómo los fotones están viajando a través del mundo. Y luego podemos recrear una nueva foto, creando la ilusión de que los fotones comenzaron en otro lugar”.

“Es un trabajo muy interesante”. “Estoy muy impresionado”, dice Nils Abramson, un profesor de holografía aplicada en el Royal Sweden Institute of Technology. A finales de 1970, Abramson fue pionero de una técnica llamada holografía de luz en vuelo, que finalmente demostró ser capaz de capturar imágenes de las ondas de luz a una velocidad de 100 mil millones de fotogramas por segundo.

Sin embargo, como señala Abramson, su técnica requiere lo denominado luz coherente, lo que significa que las depresiones y crestas de las ondas de luz que producen la imagen tienen que alinearse unas con otras. “Si destruyes la coherencia cuando la luz está pasando a través de diferentes objetos, entonces no funciona”, dice Abramson. “Así que creo que es mucho mejor si usted puede usar la luz ordinaria, lo que hace Ramesh”.

De hecho, Velten dice: “Como los fotones rebotan en los objetos de la escena o en el interior, pierden la coherencia. Sólo un método de detección incoherente como el nuestro puede ver los fotones.” Y los fotones, Velten dice, podrían dejar que los investigadores “aprendan más sobre las propiedades del material de los objetos, sobre lo que está bajo su superficie y sobre el diseño de la escena. Porque podemos ver esos fotones, podríamos utilizarlos para observar el interior de los objetos -por ejemplo, para las imágenes médicas, o para identificar los materiales “.

“Estoy sorprendido de que el método que hemos estado utilizando no ha sido más popular”, añade Abramson. “Me he sentido bastante solo. Estoy muy contento de que alguien más está haciendo algo similar. Porque creo que hay muchas cosas interesantes por encontrar cuando se hace este estudio sobre la luz misma”.

Fuente:
http://web.mit.edu/ (en inglés)

MIT creó sistemas visuales para detección de toxinas, explosivos o patógenos

Sensor_luminoso MIT
Imagen: MIT / Sensor_luminoso

Científicos del Instituto Tecnológico de Massachusetts (MIT) desarrollaron un nuevo tipo de sensor que permite conocer la presencia de agentes patógenos, toxinas, productos químicos nocivos o explosivos. Este sensor emitirá una señal luminosa, cuya intensidad será directamente proporcional a la concentración del agente detectado.

Este detector es el resultado de combinar una estructura metal-orgánica (MOF) a moléculas fluorescentes que reaccionan encendiéndose en presencia de un estímulo determinado por alguno de los componentes para el que está diseñado dicho sensor.

Estos tipos de sensores con estructuras tipo MOF, dependiendo de su combinación pueden hacer mediciones en muchos tipos de sustancias. Un ejemplo sería la sangre, donde podría medirse a través de la viscosidad la concentración del azúcar y así monitorear a los enfermos de diabetes, estando al pendiente de la señal luminosa del sensor.

Fuente:
http://web.mit.edu/ (en inglés)

Proteínas ligadas a la longevidad podrían estar involucradas en el control del ánimo

Leonard Guarente
Imagen: Donna Coveney

Durante la década pasada, el biólogo del MIT (Massachusetts Institute of Technology) Leonard Guarente y otros han mostrado que dietas muy bajas en calorías provocan una respuestas psicológica global que promueve la sobrevivencia, todo orquestado por una serie de proteínas llamadas Sirtuinas.

En una nueva revista académica que apareció en línea el 8 de Diciembre, Guarente y sus colegas han mostrado ahora que las sirtuinas también pueden jugar un papel clave en la respuesta psicológica a las restricciones dietarias. Cuando las sirtuinas están elevadas en el cerebro, como ocurre cuando la ingesta de comida es cortada, los ratones se vuelven más ansiosos. Además, en dos grandes estudios genéticos de humanos, el equipo encontró que las mutaciones que incrementan la producción de sirtuinas comúnmente están asociadas con tazas más altas de ansiedad y desórdenes de pánico.

Fuente:
http://web.mit.edu/newsoffice/2011/anxiety-sirtuins-1209.html (en inglés)

En MIT diseñaron un algoritmo que puede prevenir accidentes

Algoritmo intersecciones
© Christine Daniloff

De acuerdo a la Administración de Seguridad Vial (The National Highway Traffic Safety Administration), muchos de los accidentes automovilísticos en las intersecciones de los Estados unidos se deben a conductores que se pasaron el semáforo en rojo, y según las aseguradoras la mitad de las personas muertas no son los conductores que se pasaron el alto, sino los otros conductores, los pasajeros y peatones que pasaron o estaban en ese momento en el lugar.

Con el fin de reducir el número de accidentes en las intersecciones, investigadores del MIT (Massachusetts Institute of Technology) han diseñado un algoritmo que predice cuando un auto que viene es probable que se pase una luz roja. Basado en parámetros tales como la desaceleración del vehículo y su distancia de una luz, el grupo fue capaz de determinar que coches eran potenciales “infractores” – aquellos que pueden cruzar en una intersección después de que una luz ha cambiado a rojo – y aquellos que eran “obedientes”.

Los investigadores probaron el algoritmo con datos recogidos de una intersección en Virginia, encontrando que identificó con precisión los posibles infractores en un par de segundos antes de llegar a un semáforo en rojo, el tiempo suficiente, según los investigadores para que los demás conductores en la intersección pudieran reaccionar al peligro al ser alertados. En comparación con otros esfuerzos para modelar el comportamiento de conducción, el algoritmo del MIT genera menos falsas alarmas, una ventaja importante para que los sistemas proporcionen orientación a los conductores humanos.

El profesor Richard Cockburn Maclaurin de Aeronáutica y Astronáutica del MIT, dice que “Smart” son los coches del futuro que podrán utilizar este tipo de algoritmos para ayudar al conductor a anticipar y evitar posibles accidentes.

Fuente y video:
http://web.mit.edu/ (en inglés)

Importante avance hacia la computación fotónica

Caroline Ross
Caroline Ross. Foto: Allegra Boverman

Recientemente ha habido grandes avances en el desarrollo de chips fotónicos. Estos chips utilizan rayos de luz en lugar de electricidad para llevar a cabo sus funciones computacionales. Investigadores del Instituto Tecnológico de Massachusetts (MIT) han realizado un avance crucial hacia el desarrollo de procesadores fotónicos de silicón: un diodo fotónico.

En muchos de los sistemas de comunicación actuales, los datos viajan en forma de rayos de luz a través de fibras ópticas. Una vez que la señal llega a su destino, los datos son convertidos a su forma electrónica, y estos son procesados por medio de circuitos electrónicos, tras esto los datos vuelven a convertirse en luz utilizando un laser antes de ser enviados a otro lugar. Un procesador fotónico podría eliminar todas estas operación de conversión entre luz y electricidad, permitiendo que la luz fuera procesada directamente.

El nuevo componente desarrollado en MIT actua como un “diodo para la luz”, dice Caroline Ross, profesora de ciencia de materiales e ingeniería del MIT. Es análogo a un diodo electrónico, el cual permite que la electricidad viaje en un sentido pero la bloquea si intenta viajar en el otro. En este caso, este diodo crea un camino de un solo sentido para la luz en lugar de para la electricidad.

La luz es más rápida que los electrones, además de que se pueden transmitir varios rayos de luz por fibra óptica mientras que un cable solo puede transmitir una sola señal electrónica a la vez. De desarrollarse exitósamente procesadores fotónicos, la velocidad de las telecomunicaciones podría aumentar de manera considerable.

Para desarrollar el dispositivo, los investigadores tuvieron que encontrar un material que es a su vez transparente y magnético, características que rara vez se encuentran juntas. Utilizaron un material llamado garnet, el cual es deseable por que naturalmente transmite la luz diferente en una dirección que en la otra.

Fuente:
www.mit.edu (en inglés)

“Hoja” artificial que reproduce la fotosíntesis

'Hoja' artificial
'Hoja' artificial
© Sun Catalytix

El químico Daniel Nocera, del Instituto Tecnológico de Massachusetts (MIT), creó una “hoja” artificial que reacciona químicamente con la luz solar y reproduce la fotosíntesis, produciendo por supuesto hidrógeno y oxígeno.

La hoja consiste en una lámina del tamaño de un naipe, compuesta de silicio, níquel, cobalto y otros catalizadores, que al sumergirla en un recipiente lleno de agua, aprovecha la luz solar para descomponer el agua en hidrógeno y oxígeno, los cuales salen a la superficie en forma de burbujas. Estos gases pueden recolectarse y almacenarse en pilas de combustible para producir electricidad en forma limpia, ya que la combustión del hidrógeno no genera gases contaminantes sino sólo vapor de agua, y esto no contamina nuestro medio ambiente.

Nocera comenta que: “Se trata de un dispositivo muy ligero, fabricado con materiales muy abundantes y de bajo costo. Además es completamente portátil, no necesita cables y sólo requiere el equipo necesario para capturar las burbujas”. Él calcula que un metro cuadrado de este material sumergido en agua, puede abastecer de energía eléctrica a un hogar de tamaño medio en un país como la India.

Esta tecnología ya es una realidad, y para comenzar a introducirlo, la empresa Sun Catalytix ha puesto sus ojos en la India para la instalación de los primeros equipos.

Fuentes:
http://www.elmundo.es/