Probando chips que no han sido construidos

Chip

Un nuevo sistema de simulación por software promete una evaluación mucho más precisa de prometedores – pero potencialmente llenos de fallas – diseños de chips con múltiples núcleos.

Larry Hardesty, MIT News Office. Original (en inglés)

Durante la última década, los fabricantes de chips de computadoras han estado aumentando la velocidad de sus chips al darles unidades de procesamiento extras, o “núcleos”. La mayoría de los fabricantes ahora ofrecen chips con ocho, 10 o incluso 12 núcleos.

Pero si los chips continúan mejorando a la tasa que nos hemos acostumbrado – doblando su poder alrededor de cada 18 meses – pronto requerirán cientos e incluso miles de núcleos. Investigadores académicos y de la industria están llenos de ideas para mejorar el rendimiento de chips con múltiples núcleos, pero siempre existe la posibilidad de que un acercamiento que parezca trabajar bien con 24 o 48 núcleos pueda introducir problemas catastróficos cuando el conteo de núcleos se vuelva más alto. Ningún fabricante de chips tomará el riesgo de un diseño innovador de chip sin evidencia abrumadora de que funciona como se anuncia.

Como una herramienta de investigación, un grupo del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) que se especializa en arquitectura computacional ha desarrollado un simulador de software, llamado Hornet, que modela el rendimiento de chips de múltiples núcleos mucho más precisos que sus predecesores lo hacen. En el Quinto Simposio Internacional de Redes-en-Chip en el 2011, el grupo tomó el premio a la mejor revista académica por trabajo en el que usaron el simulador para analizar una prometedora y muy estudiada técnica de computación de múltiples núcleos, encontrando una falla fatal que otras simulaciones habían dejado pasar. Y en una edición próxima de Transacciones en Diseño Ayudado por Computadora de Circuitos y Sistemas Integrados del IEEE (Institute of Electrical and Electronics Engineers), los investigadores presentaron una nueva versión del simulador que analiza el consumo de energía así como patrones de comunicación entre núcleos, los tiempos de procesamiento de tareas individuales, y patrones de acceso a la memoria.

El flujo de datos a través de un chip con cientos de núcleos es monstruosamente complejo, y simuladores de software previos han sacrificado algo de precisión por algo de eficiencia. Para simulaciones más precisas, los investigadores han usado típicamente modelos de hardware – chips programables que pueden ser reconfigurados para imitar el comportamiento de chips de múltiples núcleos. De acuerdo a Myong Hyon Cho, un estudiante de doctorado en el Departamento de Ingeniería Eléctrica y Ciencia Computacional (EECS – Electrical Engineering and Computer Science) y uno de los desarrolladores de Hornet, éste está diseñado para complementar, no competir con, esos otros dos acercamientos. “Pensamos que Hornet se sienta en el punto exacto entre los dos”, dijo Cho.

Varias tareas desarrolladas por los muchos componentes de un chip están sincronizadas por un reloj maestro; durante cada “ciclo del reloj”, cada componente realiza una tarea. Hornet es significativamente más lento que sus predecesores, pero puede proveer una simulación “con precisión de ciclo” de un chip con 1,000 núcleos. “‘Precisión de ciclos’ significa que los resultados son precisos al nivel de un ciclo sencillo”, explica Cho. “Por ejemplo, [Hornet tiene] la habilidad de decir, ‘Esta tarea toma 1,223,392 ciclos para finalizar'”.

Simuladores existentes son buenos al evaluar el desempeño general de chips, pero pueden dejar pasar problemas que aparecen solo en casos raros y patológicos. Hornet es mucho más probable que los encuentre, como lo hizo en el caso de la investigación presentada en el Simposio Reden-en-Chip. Ahí, Cho, su consejero y el profesor de Ingeniería Eléctrica y Ciencia Computacional Srini Devadas, y sus colegas analizaron una prometedora técnica de computación de múltiples núcleos en la que el chip pasa tareas computacionales a los núcleos guardando los datos pertinentes en lugar de pasar los datos a los núcleos realizando las tareas pertinentes. Hornet identificó el riesgo de un problema llamado bloqueo mutuo, que otros simuladores habían perdido. (El bloqueo mutuo es una situación en la que varios de los núcleos están esperando recursos – canales de comunicación o localidades de memoria – en uso por otros núcleos. Ningún núcleo abandonará el recurso hasta que se le ha dado acceso al que necesita, así que los ciclos del reloj avanzan sin fin sin ninguno de los núcleos haciendo nada).

Adicionalmente al identificar el riesgo de bloqueos mutuos, los investigadores también propusieron una manera de evitarlo – y demostraron que su propuesta funcionaba con otra simulación Hornet. Eso ilustra la ventaja de Hornet sobre sistemas de hardware: la facilidad con la que puede ser reconfigurado para probar propuestas de diseño alternativas.

Construir simulaciones que funcionaran en hardware “es más complicado que solo escribir software”, dice Edward Suh, un profesor asistente de ingeniería eléctrica y computacional en la Universidad Cornell, cuyo grupo usó una versión temprana de Hornet que solo modelaba la comunicación entre núcleos. “Es difícil decir si es inherentemente más difícil de escribir, pero al menos por ahora, hay menos infraestructura, y los estudiantes no saben esos lenguajes tan bien como saben los lenguajes de programación regulares. Así que por ahora, es más trabajo”. Hornet, dice Suh, podría tener ventajas en situaciones donde “quieres probar varias ideas rápidamente, con buena precisión”.

Suh apunta, sin embargo, que como Hornet es más lento que las simulaciones de hardware o las simulaciones de software menos precisas, “tiende a simular un corto período de la aplicación en lugar de tratar de ejecutar la aplicación completa”. Pero, agrega, “Eso es definitivamente útil si quieres saber si hay comportamientos anormales”. Y además, “hay técnicas que la gente usa, como muestreo estadístico, o cosas como esa para, digamos, ‘estas son porciones representativas de la aplicación'”.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/

A veces el camino más rápido no es una línea recta

Camino rápido mit
Grafica: Christine Daniloff

Nuevos métodos y software desarrollado en MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) pueden predecir caminos óptimos para vehículos submarinos automátizados.

David L. Chandler, MIT News Office. Original (en inglés)

A veces el camino más rápido del punto A al punto B no es una línea recta: por ejemplo, si estás bajo el agua y lidiando con corrientes fuertes y cambiantes. Pero encontrando la mejor ruta en dichas situaciones es un problema monumentalmente complejo – especialmente si tratas de hacerlo no solo por un vehículo submarino, sino para un enjambre de ellos moviéndose todos hacia destinos separados.

Pero eso es exactamente lo que el equipo de ingenieros en el MIT encontraron como hacerlo, con resultados para ser presentados en Mayo en la Conferencia Internacional de Robótica y Automatización del IEEE (Institute of Electrical and Electronics Engineers). El equipo, liderado por Pierre Lermusiaux, Profesor Asociado Doherty en Utilización Oceánica, desarrolló un procedimiento matemático que puede optimizar la planeación de caminos para vehículos submarinos automatizados (AUVs – Automated Underwater Vehicles), aún en regiones con complejas líneas costeras y fuertes corrientes cambiantes. El sistema puede proveer caminos optimizados para el tiempo más corto de viaje o para el más mínimo uso de energía, o maximizar la recolección de datos que es considerada más importante.

Colecciones de AUVs propulsados y AUVs deslizados (también llamados gliders) son utilizados comúnmente estos días para mapeo e investigación oceanográfica, para reconocimiento militar y protección de puertos, o para mantenimiento de pozos petroleros profundos y respuestas de emergencia. Hasta ahora, flotas de hasta 20 AUVs han sido desplegadas, pero en los próximos años flotas mucho más largas podrían entrar en servicio, dice Lermusiaux, volviendo la tarea computacional de planear caminos óptimos mucho más compleja.

Él agrega que los intentos previos de encontrar caminos óptimos para vehículos submarinos eran o imprecisos e incapaces de lidiar con corrientes cambiantes y topografía compleja, o requerían mucho poder computacional que no podría ser aplicado a controlar enjambres de vehículos robóticos en tiempo real.

Mientras que los investigadores han estudiado dichos sistemas por muchos años, “lo que faltaba era la metodología y el algoritmo”, dijo – las matemáticas que permitieran a una computadora resolver dichos acertijos de planeación de caminos rigurosamente pero lo suficientemente rápidos para ser útiles en despliegues en el mundo real. “Por que los entornos oceánicos son tan complejos” dijo, “lo que faltaba era la integración de predicción oceánica, estimación oceánica, control y optimización” para planear caminos para múltiples vehículos en una situación que cambia constantemente. Eso es lo que el grupo “Sistemas de Simulación, Estimación y Asimilación Multidisciplinaria” (MSEAS – Multidisciplinary Simulation, Estimation, and Assimilation Systems) del MIT, liderado por Lermusiaux, ha desarrollado.

Las simulaciones del equipo han probado exitosamente el nuevo algoritmo en modelos de entornos muy complejos – incluyendo un área de las Filipinas entre miles de islas con complejas líneas costeras, aguas poco profundas y múltiples corrientes cambiantes. Simularon una flota virtual de 1,000 AUVs, desplegados de uno o más barcos y buscando diferentes objetivos. Aumentando la complicación, el sistema que diseñaron puede incluso tomar en consideración zonas “prohibidas” que el vehículo debe evitar y obstáculos fijos que pueden afectar tanto el vehículo submarino y el flujo de la corriente, e incluso obstáculos en movimiento, como barcos pasando.

Tomando ventaja del “paseo gratis” ofrecido por las corrientes, el vehículo usualmente sigue caminos sorprendentemente indirectos, serpenteando alrededor en bucles y espirales que a veces parecen un camino aleatorio. Eso es por que puede ser mucho más rápido andar a la deriva con una corriente y luego girar que tratar de cruzar linealmente, peleando con el flujo de la corriente todo el tiempo. En otros casos, el AUVs puede encontrar un camino más rápido o más eficiente energéticamente al elevarse sobre, o sumergirse debajo de, chorros, corrientes, remolinos y otras características oceánicas. Incertidumbres en las predicciones oceánicas – y como afectan a los caminos óptimos – también puede ser considerado.

Adicionalmente a encontrar caminos que son más rápidos o más eficientes, el sistema permite que enjambres de vehículos recolectores de datos, recolecten los datos más útiles en el menor tiempo posible, dice Lermusiaux. Estos acercamientos optimizadores de datos podrían ser útiles para monitorear la pesca o para estudios biológicos o ambientales.

Mientras la metodología y los algoritmos fueron desarrollados para entornos submarinos, Lermusiaux explica que sistemas computacionales similares podrían ser usados para guiar vehículos automatizados a través de cualquier tipo de obstáculos y flujos – como vehículos aéreos lidiando con vientos y montañas. Dichos sistemas podrían incluso ayudar potencialmente a robots médicos miniatura a navegar a través de el sistema circulatorio, dijo.

El algoritmo permite control y ajustes en tiempo real – como para rastrear una columna de contaminación a su fuente, o para determinar como se está dispersando. El sistema también puede incorporar funciones de evasión de obstáculos para proteger a los AUVs.

El equipo incluyó a los estudiantes graduados de ingeniería Tapovan Lolla y Mattheus Ueckermann, Konuralp Yigit, y a los científicos investigadores Patrick Haley y Wayne Leslie. El trabajo fue patrocinado por la Oficina de Investigación Naval y por el Programa Colegial de Becas Marinas del MIT.

Glen Gawarkiewicz, un científico en la Institución Oceanográfica Woods Hole quien no estuvo involucrado en esta investigación, dice, “Este trabajo es significativo. Trae rigor al problema difícil de diseñar patrones de muestra para vehículos autónomos. Conforme las capacidades y el número de vehículos autónomos se incrementa, esta metodología será una importante herramienta en la oceanografía y otros campos”.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Abogados trabajan duro para permitir a usuarios recuperar archivos de MegaUpload

MegaUpload

Además de preparar los casos de los usuarios de Megaupload acusados, un equipo de abogados está trabajando duro para permitir que quienes no se encontraban en infracción tengan acceso a sus datos personales, mediante un acuerdo al que se pretende llegar con el Departamento de Justicia.

Curiosamente, el fundador de Megaupload reveló que entre los usuarios se encuentran muchos funcionarios del Gobierno de Estados Unidos, “Adivinen que… nos encontramos un gran número de cuentas de Mega que pertenecen a funcionarios del Gobierno de estados Unidos, incluyendo el Departamento de Justicia y el Senado de los EE.UU.”, afirmó Kim Dotcom, quien espera que pronto tengan permiso para dar a ellos y al resto de los usuarios acceso a sus archivos.

Al cierre de Megaupload, hubo múltiples quejas de sus usuarios quienes perdieron desde datos relacionados con su trabajo hasta archivos y fotos personales, aun cuando estos eran legítimos.

El equipo de Megaupload no es el único preocupado, La Electronic Frontier Foundation (EFF) abordó la cuestión y puso en marcha la campaña “MegaRetrieval” para hacer un inventario de usuarios afectados. “En general estamos muy preocupados por las consecuencias que acusaciones de conspiración de Mega tenga para el futuro de la computación, el servicio de alojamiento de archivos y la innovación en general. Esperamos mejorar los procesos para contrarrestar esto en casos futuros”, dijo la abogada Julie Samuels de EFF.

En las últimas semanas Megaupload ha estado estudiando las diferentes opciones que tienen para otorgar a los usuarios acceso temporal.

Megaupload usuario
Usuario de MegaUpload afectado

Los usuarios que hayan perdido datos vitales, incluso los funcionarios de Gobierno de EUA, pueden ponerse en contacto con EFF, mediante el correo: megauploadmissing@eff.org

Más información
Ernesto de http://torrentfreak.com/ (en inglés)

Trasplantes de órganos no emparentados libres de drogas

Trasplante de órganos
A. Massee / Science Photo Library

Una transferencia de médula ósea podría terminar con la necesidad de inmunosupresores toda la vida tras un trasplante. El rechazo en los trasplantes, algo conocido en inglés como GvHD (Graft-versus-host disease – enfermedad de injerto-contra-anfitrión) es una complicación comúnmente mortal de los trasplantes de médula osea que ocurre cuando las células inmunes de un donador atacan a la persona que recibió el trasplante de tejido.

Por vez primera, investigadores han logrado reemplazar completamente las células madre derivadas de la médula ósea con las de donadores no relacionados sin causar GvHD1. Y gracias a esto, quienes reciban este trasplante también podrían aceptar riñones del mismo donador sin la necesidad de drogas que supriman al sistema inmunológico.

El equipo investigador, liderado por Suzanne Ildstad, director del Instituto para Terapeutica Celular de la Universidad de Luisville en Kentucky, encontró una manera de evitar GvHD utilizando un régimen que involucró quimioterapia, radiación y células madre sanguíneas manipuladas para eliminar aquellas que causan GvHD mientras retenía las células de la médula ósea especializadas que ellos llaman “células facilitadoras”.

Mucho del método utilizado es ahora un secreto, Ildstad busca una manera de comercializar el descubrimiento a través de una compañía que fundó llamada Regenerex, basada en Louisville.

Más información
http://www.nature.com/ (en inglés)

Ayunar puede ayudar a proteger contra enfermedades del cerebro

Ayuno alzheimer parkinson

Investigadores en el Instituto Nacional del Envejecimiento en Baltimore dicen haber encontrado evidencia que muestra que períodos de detener virtualmente toda la alimentación por uno o dos días a la semana podría proteger al cerebro contra algunos de los peores efectos del Alzheimer, el Parkinson y otras enfermedades.

“Reducir tu consumo de calorías podría ayudar a tu cerebro, pero hacerlo al detener tu consumo de alimentos probablemente no sea el mejor método de activar esta protección. Probablemente sea mejor tener períodos intermitentes de ayuno, en los que casi no comas nada, y luego tener períodos en los que comas todo lo que quieras”, dijo el profesor Mark Mattson, cabeza del laboratorio de neurociencias del instituto.

Cortar el consumo diario a alrededor de 500 calorías – que es un poco más que algunos vegetales y algo de té – por dos días de siete tuvieron claros beneficios en sus estudios. “Las células del cerebro se sujetan a un estrés medio que es análogo a los efectos del ejercicio en células musculares”, dijo Mattson.

Imagen: Alfred Pasieka/Science Photo Library

Más información
http://www.guardian.co.uk

Nanoárboles extraen hidrógeno del agua usando luz solar

Nano árboles

Ingenieros eléctricos de la Universidad de California, en San Diego, están construyendo un bosque de pequeños árboles de nanocables para capturar limpiamente la energía solar sin utilizar combustible fósil, recolectándola para generar combustible de hidrógeno. Reportándolo para el diario Nanoscale, el equipo dijo que nanocables, que están hecho de materiales abundantes en la naturaleza como silicio y óxido de zinc, también ofrecen una manera económica de proveer combustible de hidrógeno en una escala masiva.

Los árboles tienen una estructura vertical, esta estructura absorbe luz mientras que superficies planas simplemente la reflejan. Es similar a los células retinales fotoreceptoras en los ojos humanos. En imágenes de la tierra desde el espacio, la luz se refleja de superficies planas como los océanos o desiertos, mientras que bosques aparecen oscuros.

Este nuevo diseño utiliza energía de una manera limpia y sin productos secundarios. En comparación, el método convencional de producir hidrógeno está basado en elecetricidad producida por combustibles fósiles. El equipo investigador tiene un objetivo más grande todavía: alcanzar la fotosíntesis artificial.

Imagen: Wang Research Group, UC San Diego Jacobs School of Engineering.

Más información
http://ucsdnews.ucsd.edu/ (en inglés)

LEDs con más de 100% de eficiencia eléctrica

Led
Imagen: PiccoloNamek

Físicos del MIT dicen haber demostrado que un LED puede emitir más poder óptico que el poder eléctrico que consume. Esto no viola la primera ley de la termodinámica, el resto del poder óptico proviene del calor en el LED.

En sus experimentos, los investigadores redujeron la energía de entrada a solo 30 picowatts y midieron una salida de 69 picowatts de luz, una eficiencia eléctrica del 230%. Los investigadores tomaron ventaja de pequeñas cantidades de calor para emitir más poder del consumido, este calor proviene de vibraciones en el retículo atómico del dispositivo que ocurre debido a la entropía. El LED parece funcionar como una bomba de calor.

Más información
http://dvice.com/ (en inglés)
http://www.physorg.com/(en inglés)

Hotfile es tan malo como Megaupload, MPAA dice a la corte

Hotfile

La MPAA (Motion Picture Association of America) se está moviendo a toda máquina en su continua batalla con el servicio de hospedaje de archivos Hotfile. Apuntando a la investigación criminal contra Megaupload, los estudios de cine están pidiendo un juicio sumario contra Hotfile, un desarrollo que efectivamente cerraría el sitio. La MPAA argumenta que Hotfile es un paraíso de la piratería donde más del 90% de todas las descargas son infractoras de los derechos de autor.

Como uno de los grandes sitios para compartir archivos en internet, Hotfile se ha convertido en un principal objetivo para Hollywood.

En febrero del año pasado sucedió lo inevitable cuando la MPAA presentó una demanda contra el servicio de alojamientos de archivos. Desde entonces han sido presentados decenas de argumentos e incluso Hotfile demandó al miembro de la MPAA Warner Bros. por supuestamente abusar de sus herramientas para derribar trabajos con derechos de autor.

Esta semana la MPAA dio un paso importante mediante la presentación de una moción de un juicio sumario en una corte de distrito de Estados Unidos, en Florida. Con este movimiento los estudios de cine esperan evitar un juicio prolongado y tener cerrado Hotfile tan pronto como sea posible.

En documentos de la corte Hotfile es descrito como un servicio construido alrededor de infracciones a los derechos de autor. Los estudios de cine utilizan la reciente acusación contra Megaupload como apoyo y argumentan que ambos servicios son idénticos.

“El modelo de negocios de Hotfile es indistinguible del sitio web de Megaupload, que recientemente fue acusado penalmente por participar en la misma conducta que Hotfile. Los acusados incluso admiten que formaron Hotfile ‘para competir con’ Megaupload”.

La MPAA destaca similitudes con otros servicios de intercambio de archivos, que han perdido batallas legales en las cortes de Estados Unidos.

“Hotfile es responsable por miles de millones de infracciones por descargas de obras con derechos de autor, incluyendo las de valiosas películas de los demandantes y propietarios de televisión. Al igual que con otros servicios piratas adjudicados que vinieron antes que él, desde Napster y Grokster hasta Isonut y Limewire, Hotfile existe para sacar provecho de la infracción de derechos de autor”, escriben.

“Más del 90% de las descargas de Hotfihe son infracciones de derecho de autor, y casi todos los usuarios de Hotfile se dedican a la infracción de derechos de autor”.

La última estadística proviene de la investigación conducida por el Profesor Richard Waterman de la Universidad de Pensilvania en favor de los estudios de cine. Waterman concluyó que el 90.2% de todas las descargas diarias en Hotfile están infringiendo, frente al 5.3% que son claramente no infractores.

Además de señalar la violación masiva de Hotfile, el meollo del asunto es si el proveedor de alojamiento de archivos es protegido por la provisión de puerto seguro de la DMCA (Digital Millennium Copyright Act). De acuerdo con la MPAA este no es el caso.

Entre otras cosas, los estudios señalan que Hotfile previamente falló en desconectar a los infractores reincidentes, y que los empleados activos de Hotfile inducieron activamente la infracción de los derechos de autor. No cumplir con estos requerimientos significa que no tienen derecho a la protección de puerto seguro.

El movimiento de la MPAA es apoyado por una serie de pruebas que van desde correos electrónicos internos donde el personal de Hotfile asiste a los usuarios con la descarga de archivos infractores, de las discusiones del foro sobre el programa afiliado, y testimonios de la lucha contra la piratería de los jefes de los estudios de cine.

Cuando se combinan, todas las evidencias de la MPAA llevan a concluir que debería ser cerrado y a los estudios se les debe indemnizar por daños.

Cualquiera que sea el resultado, el caso es esperado para establecer un importante precedente en el futuro de servicios similares de alojamiento en nube que operan en los Estados Unidos.

Fuente
Ernesto de http://torrentfreak.com/ (en inglés)

Chip óptico de IBM mueve datos a 1 Tbps

Holey Optochip
Holey Optochip / Imagen: IBM

Investigadores de IBM desarrollaron un prototipo de chip óptico que puede transferir datos a 1 Terabit por segundo, el equivalente a descargar 500 películas en alta definición, usando pulsos de luz. El chip, llamado Holey Optochip, es un transceptor (dispositivo que actúa como transmisor y receptor a la vez).

Las redes ópticas pueden mejorar significativamente las tasas de transferencia de datos al utilizar pulsos de luz por fibra óptica en vez de enviar electrones sobre cables. Los científicos de IBM desarrollaron el Holey fabricando 48 agujeros a través de un chip de silicio CMOS de 90 nanómetros. Los agujeros permiten acceso al chip de 24 canales receptores y 24 canales transmisores.

El prototipo será reportado el Jueves en la Conferencia de Comunicaciones por Fibra Óptica.

Más información
John Ribeiro (twitter) en https://www.infoworld.com/ (en inglés)

La NASA lanzará cinco cohetes en cinco minutos

Cohetes Wallops
Imagen: NASA / Wallops

Una locura de lanzamientos llegará a la Costa Este en Marzo, la NASA lanzará cinco cohetes en cinco minutos aproximadamente para estudiar la corriente de chorro a gran altitud, de su Centro de Vuelo Wallops en Virginia.

El Experimento Cohete de Transporte Anómalo (Atrex – Anomalous Transport Rocket Experiment) es una misión de cohetes de sondeo Heliofísico que reunirá información necesaria para entender mejor el proceso responsable de la corriente de chorro a gran altitud situada entre 60 y 65 kilómetros sobre la superficie de la Tierra.

La corriente de chorro a gran altitud es superior a la que comúnmente se reportó en las previsiones meteorológicas. Los vientos encontrados en esta corriente de chorro superior normalmente tienen velocidades de 322 km/h a más de 483 km/h y crean un transporte rápido desde las latitudes medias de la Tierra a las regiones polares. Esta corriente de chorro está localizada en la misma región donde se producen fuertes corrientes eléctricas en la ionósfera. Esta es por lo tanto una región con mucha turbulencia eléctrica, del tipo que puede afectar negativamente satélites y radiocomunicaciones.

Los cohetes de sondeo que son utilizados para la misión son dos Terrier-Improved Malemutes, dos Terrier-Improved Orions y un Terrier-Oriole.

Los cinco cohetes soltarán un trazador químico que formará nubes de color blanco y lechoso de rastreo que permitirán a los científicos y al público “ver” el viento en el espacio. Además, dos de los cohetes tendrán instrumentos como carga, para medir la presión y temperatura en la atmósfera a la altura de los vientos de alta velocidad.

Cuatro trimetil aluminio
Cuatro trimetil-aluminio (TMA) rastros de una misión antes de volar a partir de Poker Flat, Alaska, en febrero de 2009. Crédito: Miguel Larsen / Clemson Universidad.

Fuente
http://www.nasa.gov/ (en inglés)