Investigadores demuestran que las memorias residen en células específicas en el cerebro

Memoria células específicas
Imagen: Nikon Small World Gallery

Simplemente activando un pequeño número de neuronas puede evocar una memoria entera.

Cathryn Delude, Picower Institute for Learning and Memory. Original (En inglés).

Nuestras memorias apreciadas o temidas – ese primer beso o un golpe en la noche – dejan rastros de memorias que podemos evocar de tiempos pasados, completos con tiempo, lugar y todas las sensaciones de la experiencia. Neurocientíficos llaman a estos rastros engramas de memoria.

Pero, ¿son los engramas conceptuales, o son una red física de neuronas en el cerebro? En un nuevo estudio del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts), los investigadores usaron optogenética para mostrar que las memorias realmente residen en células del cerebro muy específicas, y que simplemente activando una pequeña fracción de células del cerebro pueden recordar una memoria entera – explicando, por ejemplo, como Marcel Proust puede recapitular su niñez a partir del aroma de una galleta.

“Demostramos que el comportamiento basado en la cognición de alto nivel, como la expresión de una memoria específica, puede ser generada en un mamífero por una activación física altamente específica de una pequeña subpoblación de células cerebrales, en este caso por luz”, dice Susumu Tonegawa, el Profesor de Biología y Neurociencia en el MIT y autor líder del estudio reportado en línea en el diario Nature. “Esta es la prueba del siglo 21 rigurosamente diseñada que el neurocirujano canadiense Wilder Penfield ideó a principios del siglo pasado mediante una observación accidental que sugirió que la mente esta basada en materia”.

En aquella famosa cirugía, Penfield trató a pacientes de epilepsia al sacar partes del cerebro donde se originaban los ataques. Para asegurarse de que destruyó solamente las neuronas problemáticas, Penfield estimuló el cerebro con pequeñas descargas de electricidad mientras que los pacientes, que estaban bajo anestesia local, reportaban lo que experimentaban. Notablemente, algunos recordaron vívidamente eventos complejos enteros cuando Penfield estimuló solo unas pocas neuronas en el hipocampo, una región que ahora se considera esencial para la formación y el recordar memorias episódicas.

Los científicos han continuado explorando el fenómeno pero, hasta ahora, nunca se había probado que la reactivación directa del hipocampo era suficiente para causar el recordar memorias.

Arrojando luz en el asunto

Adelantándonos a la introducción, hace siete años, de la optogenética, que puede estimular neuronas que son genéticamente modificadas para expresar proteínas activadas por luz. “Pensamos que podríamos utilizar esta nueva tecnología para probar directamente la hipótesis sobre el cifrado de memorias y el almacenamiento en un experimento de mímica”, dice el coautor Xu Liu, un postdoctorado en el laboratorio de Tonegawa.

“Queríamos activar artificialmente una memoria sin la experiencia sensorial requerida, que provee evidencia experimental de que aún fenómenos efímeros, como memorias personales, residen en la maquinaria física del cerebro”, agrega el coautor Steve Ramirez, un estudiante graduado en el laboratorio de Tonegawa.

Los investigadores identificaron primero un grupo específico de células cerebrales en el hipocampo que solo estaban activas cuando un ratón estaba aprendiendo sobre un nuevo entorno. Determinaron qué genes fueron activados en esas células, y los mezclaron con un gen para channelrhodopsin-2 (ChR2), una proteína activada por luz usada en la optogenética.

Después, estudiaron a ratones con esta copla genética en las células de la circunvolución dentada del hipocampo, usando pequeñas fibras ópticas para entregar pulsos de luz a las neuronas. La proteína activada por luz solo se expresaría en las neuronas involucradas con el aprendizaje de experiencias – una manera ingeniosa de permitir el etiquetado de la red física de neuronas asociadas con un engrama de memoria específico para una experiencia específica.

Finalmente, el ratón entró en un entorno y, después de unos pocos minutos de exploración, recibió un pequeña descarga, aprendiendo a temer el entorno en particular donde ocurrió la descarga. Las células cerebrales activadas durante este condicionamiento de miedo se volvieron etiquetadas con ChR2. Más tarde, cuando fue expuesto a pulsos de luz desencadenantes en un entorno completamente diferente, las neuronas involucradas en la memoria de miedo se activaron – y el ratón rápidamente entró en un agazapo defensivo e inmóvil.

Memoria falsa

Este congelamiento inducido por luz sugirió que los animales estaban recordando la memoria de recibir una descarga eléctrica. El ratón aparentemente percibió este recuerdo de una memoria de miedo – pero la memoria fue reactivada artificialmente. “Nuestros resultados muestran que las memorias realmente residen en células cerebrales muy específicas”, dijo Liu, “y simplemente al reactivar esas células por medios físicos, como la luz, una memoria entera puede ser recordada”.

Refiriéndose al filósofo francés del siglo 17 que escribió, “pienso, por lo tanto existo,” Tonegawa dice, “René Descartes no creía que la mente pudiera ser estudiada como una ciencia natural. Estaba equivocado. Este método experimental es la manera de demostrar que la mente, como los recuerdos de memorias, están basados en cambios en la materia”.

“Este trabajo notable exhibe el poder de combinar las últimas tecnología para atacar uno de los problemas centrales de la neurobiología”, dice Charles Stevens, un profesor en el Laboratorio de Neurobiología Molecular en el Instituto Salk quien no estuvo involucrado en esta investigación. “Mostrando que la reactivación de esas células nerviosas que estuvieron activas durante el aprendizaje pueden reproducir el comportamiento aprendido es realmente un logro”.

El método también podría tener aplicaciones en el estudio de las enfermedades neurodegenerativas y neuropsiquiátricas. “Mientras más sepamos sobre las piezas móviles que forman nuestros cerebros”, dice Ramirez, “estaremos mejor equipados para encontrar lo que sucede cuando las piezas del cerebro se rompen”.

Otros contribuyentes a este estudio fueron Karl Deissenroth de la Universidad de Stanford, cuyo laboratorio desarrollo la optogenética, y Petti T. Pang, Corey B. Puryear y Arvind Govindarajan del Centro RIKEN-MIT para Genética de Circuitos Neurales en el Instituto Picower para el Aprendizaje y la Memoria en el MIT. El trabajo fue apoyado por los Institutos Nacionales de Salud y el Instituto RIKEN de Ciencia del Cerebro.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Una vista cercana de Mercurio

Mercurio
Imagen: NASA

Investigadores encuentran que el planeta pudo haber tenido un pasado dinámico

Jennifer Chu, MIT News Office. Original (en inglés).

Nuevas observaciones de una nave espacial orbitando Mercurio han revelado que el pequeño planeta alberga un interior muy inusual – y un vistazo de la topografía de la superficie de Mercurio por la nave sugiere que el planeta ha tenido una historia muy dinámica.

Las observaciones fueron tomadas por una sonda llamada MESSENGER (Mercury Surface, Space Environment, Geochemistry and Ranging – Superficie, Ambiente Espacial, Geoquímica y Medición de Mercurio), la primera que alguna vez ha entrado en órbita alrededor de Mercurio. MESSENGER alcanzó la órbita de Mercurio en marzo del 2011, y desde entonces ha circulado el planeta dos veces al día, recolectando cerca de 100,000 imágenes y más de cuatro millones de mediciones de la superficie de Mercurio.

Un equipo de científicos de instituciones incluyendo al MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts), la Institución Carnegie de Washington, el Laboratorio de Física Aplicada de la Universidad Johns Hopkins y el Centro de Vuelo Espacial Goddard de la NASA han analizado los datos y mapeado precisamente la topografía del planeta y los campos gravitacionales. De los estimados de gravedad, el equipo encontró que Mercurio probablemente tiene una estructura interior inusual – un núcleo de hierro excepcionalmente grande recubierto por una capa sólida de sulfuro de hierro y un delgado manto y corteza exterior de silicato. De las mediciones topográficas, el equipo mapeó un gran número de cráteres en la superficie del planeta, realizando un descubrimiento sorpresivo: muchos de estos se han inclinado con el tiempo, sugiriendo que procesos dentro del planeta han deformado el terreno después de que los cráteres se formaron.

Lon investigadores detallan sus descubrimientos en dos revistas académicas publicadas esta semana en el diario “Science”.

“Anteriormente a las amplias observaciones del MESSENGER, muchos científicos creían que Mercurio era muy similar a la Luna – que se enfrió temprano en la historia del sistema solar, y que ha sido un planeta muerto a través de la mayoría de su evolución”, dice la coautora Maria Zuber, profesora de Geofísica en el MIT. “Ahora estamos encontrando evidencia convincente de una dinámica inusual dentro del planeta, indicando que Mercurio estuvo activo aparentemente por un largo tiempo”.

Misión mercuriana

Entrar en órbita alrededor de Mercurio no fue un logro sencillo, principalmente por su proximidad con el Sol. Cualquier nave espacial que se dirige hacia el planeta acelera, debido al poderoso campo gravitacional del Sol. Para contrarrestar el jalón del Sol y alentar a MESSENGER, el equipo de MESSENGER programó la sonda a que volara cerca de Venus dos veces, y Mercurio tres veces, antes de alentarse lo suficiente para ser capturado en la órbita de mercurio con la ayuda de un encendido del motor principal.

Tras entrar en la órbita de Mercurio, la nave espacial comenzó a medir las elevaciones de la superficie del planeta por medio de un altímetro láser. A través del rastreo por radio (el elemento), la sonda estimó el campo gravitacional del planeta. A través de la misión de un año, la nave espacial MESSENGER luchó con mareas desde el sol, que empujaron a la sonda fuera de su órbita óptima, así como lo que Zuber llama “presión de la luz solar” – fotones o paquetes de luz desde el sol que ejercen presión en la nave espacial. El equipo ajustó periódicamente la órbita de la sonda e hizo correcciones precisas a sus medidas para tomar en cuenta los efectos del sol, mapeando el campo gravitacional así como la elevación de la superficie del hemisferio norte de Mercurio.

Dentro y fuera

Las mediciones del equipo revelaron encuentros sorprendentes tanto en el interior del planeta como en su superficie. De los estimados gravitacionales de la sonda, el grupo dedujo que Mercurio probablemente tiene un núcleo enorme de hierro que incluye aproximadamente el 85 por ciento del radio del planeta. (En comparación el núcleo de la Tierra es alrededor de la mitad del radio en tamaño). Esto significa que el manto y y la corteza ocupan solo el 15 por ciento del radio exterior del planeta – aproximadamente tan delgado como la cáscara de una naranja, dice Zuber.

Los investigadores también razonaron, dado el campo gravitacional de Mercurio, que justo por encima de la capa fundida exterior del núcleo del planeta podría haber una capa sólida de hierro y azufre – un tipo de estructura en capas que no se conoce que exista en ningún otro planeta.

“Si el modelo de hierro y azufre es correcto, tendría implicaciones sobre como el dínamo dentro de Mercurio produce el campo magnético del planeta”, dice Gerald Schubert, profesor de ciencias de la Tierra y el espacio en la Univerdidad de Califoria en los Ángeles (UCLA), quien no participó en la investigación. “El proceso de generación del dínamo podría funcionar diferente en Mercurio comparado a la Tierra”.

El coautor Dave Smith, un científico investigador en el Departamento de las Ciencias de la Tierra, Atmosféricas y Planetarias del MIT, dice que el proceso científico que llevó a los resultados del equipó fue todo un viaje por sí mismo.

“Teníamos una idea de la estructura interna de Mercurio, [pero] las observaciones iniciales no encajaban con la teoría entonces dudamos de las observaciones”, dice Smith. “Trabajamos más y concluimos que las observaciones eran correctas, y entonces retrabajamos la teoría para el interior de Mercurio para que encajara con las observaciones. Así es como se supone que trabaje la ciencia, y es un buen resultado”.

A través de mediciones con láser de la superficie del planeta, los investigadores mapearon múltiples características geológicas en el hemisferio norte de Mercurio, encontrando que el rango de elevaciones eran más pequeñas que las de Marte o la Luna. También observaron algo inesperado en la cuenca Caloris de Mercurio, el más grande cráter de Mercurio: porciones del piso del cráter estaban más elevadas que su borde, sugiriendo que fuerzas dentro del interior empujaron el cráter después del impacto inicial que lo creó.

Zuber y su equipo también identificaron un área de tierras bajas centrada aproximadamente en el polo norte de Mercurio que pudo haber migrado ahí en el curso de la evolución del planeta. Zuber explica que un proceso llamado deambulación polar puede causar que características geológicas se muevan alrededor de la superficie del planeta debido a la redistribución de masa dentro o fuera de un planeta por procesos geodinámicos.

Uno de dichos procesos de transporte de masa en el interior de un planeta es convección dentro del manto. Material viscoso dentro del manto circula y puede empujar fragmentos de la corteza hacia arriba y hacia afuera, cambiando el terreno alrededor del planeta. Dado el manto extremadamente delgado de Mercurio, como fue revelado por MESSENGER, Zuber dice que es un reto encender como la convección operó para elevar amplias extensiones del terreno a las elevaciones observadas.

“Es interesante pensar qué pudo haber causado la deformación observada”, dice Zuber. “Parace que hay algunas dinámicas inusuales ocurriendo dentro de Mercurio”.

Reimpreso con permiso de MIT News.

Enlaces
Película a color de la superficie de Mercurio capturada por MESSENGER (.mov)

Imagen
NASA/JHUAPL/CIW-DTM/GSFC/MIT/Brown Univ/; Renderizada por James Dickson

Fuente
http://web.mit.edu/ (en inglés)

Viendo objetos detrás de paredes

Imagen tras paredes

Científicos en el Instituto Tecnológico de Massachusetts (MIT – Massachusetts Institute of Technology) en Cambridge han creado una cámara que puede grabar imágenes de objetos ocultos detrás de paredes.

La cámara dispara un pulso de láser a un muro en el extremo alejado de la escena oculta, y graba el tiempo en el que la luz dispersa alcanza la cámara. Los fotones rebotan de la pared al objeto escondido y de vuelta a la pared, dispersándose cada vez, antes de que una pequeña fracción eventualmente alcance la cámara, cada una a un tiempo ligeramente diferente. La cámara captura esta información del tiempo de vuelo y la usa para reconstruir una imagen del objeto oculto.

La resolución del tiempo es la que brinda la clave para revelar la geometría del objeto oculto. La posición del pulso de láser es cambiada 60 veces para obtener múltiples perspectivas de la escena oculta. El pulso de láser tiene una duración de 50 femtosegundos (0.00000000000005 segundos). La cámara puede grabar imágenes cada 2 picosegundos (0.000000000002 segundos), el tiempo que le toma a la luz viajar 6 milímetros. Un programa toma la información recibida y reconstruye el objeto.

Más información
http://www.nature.com/ (en inglés)
El estudio (www.nature.com) (en inglés)

Gas de invernadero puede encontrar un hogar bajo tierra

Gas invernadero
Image: Michael Szulczewski, of the Juanes Research Group, MIT

Un nuevo análisis del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) muestra que hay suficiente espacio para guardar seguramente al menos un siglo de emisiones de combustibles fósiles de los Estados Unidos

David L. Chandler, MIT News Office. Original (en inglés).

Un nuevo estudio por investigadores del MIT muestra que hay la suficiente capacidad en acuíferos salinos profundos en los Estados Unidos para guardar al menos un siglo de emisiones de dióxido de carbono de las plantas eléctricas que queman carbón. Aunque quedan preguntas sobre la economía de sistemas para capturar y guardar dichos gases, este estudio se enfoca en un problema principal que ha dejado en la sombra dichas propuestas.

El análisis del equipo del MIT – liderado por Ruben Juanes, un profesor asociado en Estudios Energéticos en el Departamento de Ingeniería Civil y del Entorno, y parte del trabajo de tesis doctoral de los estudiantes graduados Christopher MacMinn y Michael Szulczewski – será publicado esta semana en el Proceedings of the National Academy of Sciences (PNAS).

Las plantas eléctricas que queman carbón generan alrededor del 40% de las emisiones de carbono en el mundo, entonces el cambio climático “no será abordado a menos que se lidie con las emisiones de dióxido de carbono de plantas de carbón”, dice Juanes. “Debemos hacer muchas cosas diferentes” como desarrollar alternativas nuevas y más limpias, dice, “pero una cosa que no va a irse es el carbón”, por que es una fuente de poder barata y ampliamente disponible.

Esfuerzos para reducir los gases de invernadero se han enfocado principalmente en la búsqueda de fuentes de energía prácticas y económicas, como el viento o energía solar. Pero las emisiones humanas son ahora tan vastas que muchos analistas piensan que es improbable que estas tecnologías solas puedan resolver el problema. Algunos han propuesto sistemas para capturar emisiones – principalmente dióxido de carbono del quemado de combustibles fósiles – entonces comprimirlas y guardar el desecho en formaciones geológicas profundas. Este acercamiento es conocido como captura y almacenaje de carbón, o CSS (carbon capture and storage).

Uno de los lugares más prometedores para almacenar el gas es en los profundos acuíferos salinos: aquellos más de una milla debajo de la superficie, muy por debajo de las fuentes de agua dulce usadas para consumo humano y agricultura. Pero los estimados de la capacidad de dichas formaciones en los Estados Unidos han variado desde guardar solo algunos años de emisiones de plantas de carbón hasta muchos miles de años de emisiones.

La razón para la enorme disparidad en las estimaciones es por dos causas. Primera, por que los acuíferos salinos profundos no tienen valor comercial, ha habido poca exploración para determinar su extensión. Segunda, la dinámica de fluidos de cómo el dióxido de carbono concentrado y licuado se esparciría a través de dichas formaciones es muy compleja y difícil de modelar. La mayoría de los análisis simplemente estimaron el volumen promedio de las formaciones, sin considerar la dinámica de cómo el CO2 las infiltraría.

El equipo del MIT modeló cómo el dióxido de carbono se filtraría a través de la roca, tomando en cuenta no solo la capacidad final de las formaciones sino la tasa de inyección que podría sustentarse en el tiempo. “La clave es capturar las físicas esenciales del problema”, dice Szulczewski, “pero simplificándolo lo suficiente para poder aplicarlo al país entero”. Eso significó ver los detalles de los mecanismos de captura en la roca porosa a la escala de los micrones, entonces aplicando ese entendimiento a formaciones en un espacio de cientos de millas.

“Comenzamos con el grupo complicado completo de ecuaciones para el flujo fluídico, y entonces lo simplificamos”, dice MacMinn. Otros estimados han tendido a sobresimplificar el problema, “perdiendo algunas de las sutilezas de la física”, dice. Mientras que este análisis se enfocó en los Estados Unidos, MacMinn dice que capacidades de almacenamiento similares seguramente existen alrededor del mundo.

Howard Herzog, un investigador ingeniero principal con la Iniciativa de Energía del MIT y co-autor de la revista académica del PNAS, dice que este estudio “demuestra que la tasa de inyección de CO2 en una reserva es un parámetro crítico al hacer estimados de almacenamiento”.

Cuando está licuado el dióxido de carbono es disuelto en el agua salada, el fluido resultante es más denso que cualquiera de los componentes, así que se hunde naturalmente. Es un proceso lento, pero “una vez que el dióxido de carbono está disuelto, has ganado el juego”, dice Juanes, por que la mezcla densa y pesado es casi seguro que nunca volverá a escapar de vuelta a la atmósfera.

Mientras que este estudio no tomó en consideración el costo de los sistemas CCS, muchos analistas han concluido que podrían agregar de un 15 a un 30 por ciento al costo de la electricidad generada con carbón, y no sería viable a menos que un impuesto al carbono o un límite a las emisiones de carbono fuera implementado.

Franklin Orr Jr., un profesor de ciencias de la tierra y director del Instituto Precourt para la Energía en la Universidad de Stanford, dice, “La contribución importante de este trabajo es que agrega consideración de la tasa de inyección de CO2, por que puede ser restringido por el aumento de la presión en los acuíferos salinos profundos. Esta revista académica provee evidencia que aún cuando esas restricciones son consideradas hay mucha capacidad de almacenamiento. Esa es una contribución muy útil”.

James J. Dooley, un científico principal en el Laboratorio Nacional del Noroeste del Pacífico quien no estuvo involucrado en el estudio del MIT, lo llamó “un muy buen análisis que demuestra que dadas las condiciones regulatorias y económicas apropiadas, las tecnologías de captura y almacenamiento del dióxido de carbono pueden ser la base de reducciones de gases de invernadero profundas y sostenidas en los Estados Unidos y alrededor del mundo”.

Mientras que quedan incertidumbres, “Realmente pienso que CSS tiene un papel que jugar”, dice Juanes. “No es la última salvación, es un puente, pero podría ser esencial por que realmente puede afrontar las emisiones de carbón y gas natural”.

La investigación fue apoyada por fondos del Departamento de Energía de los Estados Unidos, la Iniciativa de Energía del MIT, el Fondo de Investigación Reed, la Sociedad de Becarios de la Familia Martin para la Sustentabilidad y la Cátedra de Estudios de Energía ARCO.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Un biplano romperá la barrera del sonido

Biplano
Imagen: Christine Daniloff / MIT News

Biplanos más baratos, silenciosos y eficientes en combustible podrían poner los viajes supersónicos en el horizonte

Jennifer Chu, MIT News Office. Original (en inglés).

Por 27 años, el Concorde le dio a sus pasajeros un raro lujo: ahorro de tiempo. Por un caro boleto, el jet supersónico llevó a los poseedores de boletos de Nueva York a París en solamente tres horas y media – apenas tiempo suficiente para une siesta y un aperitivo. Tras varios años, los caros boletos, los altos costos de energía, los asientos limitados y el problema del ruido de la explosión sónica alentaron el interés y las ventas de boletos. El 26 de noviembre del 2003, el Concorde – y los vuelos comerciales supersónicos – se retiraron del servicio.

Desde entonces, un número de grupos han estado trabajando en diseños para la siguiente generación de jets supersónicos. Ahora un investigador del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) ha propuesto un concepto que podría resolver muchos de los problemas que dejaron al Concorde en tierra. Qiqi Wang, un profesor asistente de aeronáutica y astronáutica, dice que la solución, en principio, es simple: En lugar de volar con una ala a un lado, ¿por qué no dos?

Wang y sus colegas Rui Hu, un postdoctorado en el Dapartamento de Aeronáutica y Astronáutica, y Antony Jameson, un profesor de ingeniería en la Universidad de Stanford, han mostrado a través de un modelo de computadora que un biplano modificado puede, de hecho, producir mucho menos arrastre que un avión convencional de un ala a velocidades de crucero supersónicas. El grupo publicará sus resultados en el Journal of Aircraft (diario de aeronaves).

Este arrastre reducido, de acuerdo a Wang, significa que el avión requeriría menos combustible para volar. También significa que el avión produciría una explosión sónica menos intensa.

“La explosión sónica es en realidad las ondas de choque creadas por los aviones supersónicos, propagada al suelo”, dice Wang. “Es como escuchar disparos. Es tan molesto que a los jets supersónicos no les estaba permitido volar cerca de la tierra”.

Duplica las alas, duplica la diversión

Con el diseño de Wang, un jet con dos alas – una posicionada encima de la otra – cancelaría las ondas de choque producidas de cualquiera de las alas sola. Wang le otorga el crédito al ingeniero alemán Adolf Busemann por el concepto original. En los años 50, Busemann presentó un diseño de biplano que esencialmente elimina las ondas de choque a velocidades supersónicas.

Normalmente, conforme un jet convencional se acerca a la velocidad del sonido, el aire comienza a comprimirse en el frente y en la parte de atrás del jet. Conforme el avión alcanza y supera la velocidad del sonido, o Mach 1, el incremento súbito en la presión del aire crea dos enormes ondas de choque que irradian a ambos extremos del avión, produciendo una explosión sónica.

Por medio de cálculos, Busemann encontró que un diseño de biplano podría esencialmente eliminar las ondas de choque. Cada ala del diseño, cuando se ve de lado, tiene la forma de un triángulo aplanado, con las alas superior e inferior apuntando una hacia la otra. La configuración, de acuerdo a sus cálculos, cancela las ondas de choque producidas por cada ala sola.

Sin embargo, al diseño le falta elevación: las dos alas crean un canal muy estrecho a través del cual solo una cantidad de aire limitada puede fluir. Cuando la transición a velocidades supersónicas, el canal, dice Wang, podría esencialmente “asfixiarse”, creando un arrastre increíble. Mientras que el diseño podría funcionar bellamente a velocidades supersónicas, no puede sobreponerse al arrastre para alcanzar dichas velocidades.

Elevando una teoría que sigue en tierra

Para lidiar con el asunto del arrastre, Wang, Hu y Jameson diseñaron un modelo de computadora para simular el rendimiento del biplano de Busemann a varias velocidades. A una velocidad dada, el modelo determinó la forma óptima de las alas para minimizar el arrastre. Los investigadores agregaron entonces los resultados de una docena de diferentes velocidades y 700 configuraciones de alas y obtuvieron una forma óptima para cada ala.

Encontraron que suavizar la superficie interna de cada ala ligeramente creaba un canal más amplio a través del cual pudiera fluir el aire. Los investigadores también encontraron que al elevar el borde superior del ala más alta, y la parte inferior del ala baja, el avión conceptual era capaz de volar a velocidades supersónicas, con la mitad del arrastre de los jets supersónicos convencionales como el Concorde. Wang dice que este tipo de rendimiento podría potencialmente cortar la cantidad de combustible requerido para volar el avión a más de la mitad.

“Si piensas al respecto, cuando despegas, no solo tienes que cargar a los pasajeros, sino también el combustible, y si puedes reducir el combustible quemado, puedes reducir cuanto combustible necesitas cargar, lo que a su vez reduce el tamaño de la estructura que necesitas para cargar el combustible”, dice Wang. “Es como una reacción en cadena”.

El próximo paso del equipo es diseñar un modelo tridimensional para tomar en consideración otros factores que afectan el vuelo. Mientras que los investigadores del MIT están buscando un diseño óptimo simple para el vuelo supersónico, Wang menciona que un grupo en Japón ha logrado progreso al diseñar un biplano como el de Busemann con partes movibles: Las alas esencialmente cambiarían de forma en medio del vuelo para alcanzar velocidades supersónicas.

“Ahora la gente tiene más ideas sobre como mejorar el diseño [de Busemann]”, dice Wang. “Esto puede llevar a una mejora dramática, y podría haber una explosión en el campo en los años venideros”.

“Hay muchos desafíos diseñando aeronaves supersónicas realistas, como el alto arrastre, motores eficientes y explosiones sónicas bajas”, dice Karthik Duraisamy, profesor asistente de aeronáutica y astronáutica en la Universidad de Stanford, quién no estuvo involucrado en la investigación. “La revista académica del doctor Wang presenta un primer paso importante hacia reducir el arrastre, y también está el potencial para afrontar los problemas estructurales”.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Nueva investigación de CSAIL podría ayudar a asegurar la nube

Computación en la nube
Imagen: Tecnocápsulas

Fondos de DARPA fueron entregados a un proyecto que tiene como meta desarrollar una infraestructura de nube inteligente y que se auto-repare.

Abby Abazorius, CSAIL. Original (en inglés)

La computación en la nube se ha vuelto completamente omnipresente, dando lugar a cientos de nuevos servicios basados en web, plataformas para construir aplicaciones, y nuevos tipos de negocios y compañías. Sin embargo, la plataforma libre, fluida y dinámica que la computación en la nube provee también la hace particularmente vulnerable a ciber-ataques. Y debido a que la nube es infraestructura compartida, las consecuencias de dichos ataques pueden ser extremadamente serias.

Ahora, con fondos de la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA – Defense Advanced Research Projects Agency), investigadores del Laboratorio de Ciencia Computacional e Inteligencia Artificial (CSAIL – Computer Science and Artificial Intelligence Laboratory) del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) planea desarrollar un nuevo sistema que ayudaría a la nube a identificar y recuperarse de un ataque casi instantáneamente.

Típicamente, los ciber-ataques fuerzan el apagado del sistema infiltrado entero, independientemnete de si el ataque es en una computadora personal, en un sitio web de negocios o en una red entera. Mientras que el apagado previene que el virus se esparza, éste efectivamente deshabilita la infraestructura subyacente hasta que la limpieza está completa.

El profesor de Ingeniería Eléctrica y Ciencia Computacional Martin Rinard, un investigador principal en CSAIL y líder del proyecto Detección y Reparación de Intrusiones en la Nube (Cloud Intrusion Detection and Repair), y su equipo de investigadores planean desarrollar una infraestructura de computación en la nube inteligente y que se autorepare que sería capaz de identificar la naturaleza del ataque y entonces, esencialmente, arreglarse a sí misma.

El ámbito de su trabajo está basado en examinar las operaciones normales de la nube para crear lineamientos de como debería de verse y funcionar, entonces partir de este modelo para que la nube pueda identificar cuando un ataque está ocurriendo y regresar a la normalidad tan rápidamente como sea posible.

“Muy similar a cómo el cuerpo humano tiene un sistema de monitoreo que puede detectar cuando todo está funcionando normalmente, nuestra hipótesis es que un ataque exitoso puede parecer como una anormalidad en la actividad operativa normal del sistema”, dice Rinard. “Al observar la ejecución de un sistema en la nube ‘normal’ estaremos en el corazón de lo que queremos preservar sobre el sistema, lo que debería mantener a la nube segura de un ataque”.

Rinard cree que un problema mayor con la infraestructura de computación en la nube de hoy en día es la falta de un entendimiento completo de como operan. Su investigación apunta a identificar los efectos sistémicos de comportamiento diferente en sistemas de computación en la nube por pistas sobre como prevenir futuros ataques.

“Nuestra meta es observar y entender la operación normal de la nube, y entonces cuando ocurra algo fuera de lo ordinario, tomar acciones que conduzcan a la nube de vuelta a su modo normal de operaciones”, dice Rinard. “Nuestra expectativa es que si podemos hacer esto, la nube sobrevivirá el ataque y seguirá operando sin ningún problema”.

Al examinar de cerca las operaciones de la nube entera y usando ese modelo para prevenir ataques, el sistema de Rinard debería permitir que la nube detecte y se recupere de nuevos ataques independientemente, una operación que es imposible para sistemas actuales.

“Al monitorear por desviaciones en el comportamiento que sean indicativas de actividad maliciosa en lugar de firmas existentes, nuestro sistema puede detectar y recuperarse de ataques desconocidos previamente”, dice Stelios Sidiroglou-Douskos, un científico investigador en CSAIL.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)
Más información
http://groups.csail.mit.edu/ (en inglés)

Guiando aviones robot usando gestos con las manos

Gestos manos

Investigadores del MIT (Massachusetts Institute of Technology – Instituto tecnológico de Massachusetts) están desarrollando un sistema que le permitiría a las tripulaciones de portaaviones dirigir aviones autónomos usando gestos con las manos.

Larry Hardesty, MIT News OfficeOriginal (en inglés)

Las tripulaciones de los portaaviones utilizan una serie de gestos estándar con las manos para guiar aviones a la cubierta del portaaviones. Pero ya que los aviones robóticos se utilizan con cada vez más frecuencia para misiones aéreas rutinarias, los investigadores en el MIT están trabajando en un sistema que les permitiría seguir el mismo tipo de gestos.

El problema de interpretar señales con las manos tiene dos partes diferentes. El primero es simplemente inferir la postura del cuerpo de quien señala de una imagen digital: ¿Están las manos arriba o abajo, los codos hacia dentro o hacia afuera? El segundo es determinar que gesto específico es mostrado en una serie de imágenes. Los investigadores del MIT están sobre todo preocupados con el segundo problema; presentaron su solución en la edición de marzo del diario ACM Transactions on Interactive Intelligent Systems (Transacciones ACM en Sistemas Interactivos Inteligentes). Pero para probar su acercamiento, también tuvieron que abordar el primer problema, lo que hicieron en un trabajo presentado en la Conferencia Internacional de Reconocimiento Automático de Rostro y Gestos del IEEE (Institute of Electrical and Electronics Engineers – Instituto de Ingenieros Eléctricos y Electrónicos) del año pasado.

Yale Song, un estudiante de doctorado en el Departamento de Ingeniería Eléctrica y Ciencia Computacional en el MIT, y su consejero, el profesor de ciencias computacionales Randall Davis, y David Demirdjian, un científico investigador en el Laboratorio de Ciencia Computacional e Inteligencia Artificial (CSAIL – Computer Science and Artificial Intelligence Laboratory) del MIT, grabaron una serie de videos en los que diversas personas realizaron un conjunto de 24 gestos comúnmente usados por personal de la tripulación de cubierta de un portaaviones. Para probar su sistema de identificación de gestos, primero tuvieron que determinar la pose corporal de cada sujeto en cada cuadro de video. “Estos días puedes fácilmente utilizar un Kinect común o muchos otros controladores”, dice Song, refiriéndose al popular dispositivo de Xbox de Microsoft que le permite a los jugadores controlar videojuegos usando gestos. Pero eso no existía cuando los investigadores del MIT comenzaron su proyecto; para hacer las cosas más complicadas, sus algoritmos tenían que inferir no solo la posición del cuerpo sino además las formas de las manos de los sujetos.

El software de los investigadores del MIT representó el contenido de cada cuadro de video usando solo unas pocas variables: datos tridimensionales sobre las posiciones de los codos y las muñecas, y si las manos estaban abiertas o cerradas, los pulgares abajo o arriba. La base de datos en la que los investigadores guardaron secuencias de dichas representaciones abstractas fue el sujeto de la revista académica del año pasado. Para la nueva revista académica, usaron esa base de datos para entrenar sus algoritmos de clasificación de gestos.

El principal cambio en clasificar las señales, explicó Song, es que la entrada – la secuencia de posiciones corporales – es continua: Miembros de la tripulación de la cubierta del portaaviones están en constante movimiento. El algoritmo que clasifica los gestos, sin embargo, no puede esperar hasta que dejen de moverse para comenzar su análisis. “No podemos simplemente darle miles de cuadros de video, por que tomaría una eternidad”, dice Song.

Por lo tanto el algoritmo de los investigadores trabaja en una serie de pequeñas secuencias de posiciones corporales; cada una es de alrededor de 60 cuadros de longitud, o el equivalente de casi 3 segundos de video. Las secuencias se enciman: La segunda secuencia podría comenzar a, digamos, el cuadro 10 de la primera secuencia, la tercera secuencia al cuadro 10 de la segunda, y así sucesivamente. El problema es que ninguna secuencia puede contener la suficiente información para identificar comprensivamente un gesto, y el nuevo gesto podría comenzar en el medio de un cuadro.

Por cada cuadro en una secuencia, el algoritmo calcula la probabilidad de que pertenezca a cada uno de los 24 gestos. Entonces calcula una media ponderada de las probabilidades para la secuencia entera, lo que mejora la precisión, ya que los promedio preservan información sobre como cada cuadro se relaciona con los anteriores y los subsecuentes. Al evaluar las probabilidades colectivas de secuencia sucesivas, el algoritmo también asume que los gestos no cambian demasiado rápidamente o que son muy erráticos.

En pruebas, el algoritmo de los investigadores correctamente identificó los gestos recolectados en la base de datos de entrenamiento con una precisión de 76 por ciento. Obviamente, ese no es un porcentaje lo suficientemente alto para una aplicación en la cual la tripulación de cubierta – y piezas multimillonarias de equipo – confíen su seguridad. Pero Song cree que sabe como incrementar la precisión del sistema. Parte de la dificultad al entrenar el algoritmo de clasificación es que tiene que considerar muchas posibilidades para cada pose que le es presentada: Por cada posición del brazo hay cuatro posibles posiciones de mano, y por cada posición de mano hay seis diferentes posiciones de brazo. En un trabajo en curso, los investigadores están modificando el algoritmo para que considere los brazos y las manos por separado, lo que reduciría drásticamente la complejidad computacional de su tarea. Como consecuencia, debe aprender a identificar gestos de los datos de entrenamiento mucho más eficientemente.

Philip Cohen, co-fundador y vicepresidente ejecutivo de investigación en Adapx, una compañía que construye interfaces de computadora que dependen de medios naturales de expresión, como escritura y habla, dice que la nueva revista académica de los investigadores del MIT ofrece “una extensión novedosa y una combinación de técnicas de reconocimiento de gestos basado en modelo y apariencia para rastreo del cuerpo y las manos utilizando visión computacional y aprendizaje de máquinas”.

“Estos resultados son importantes y presagian una nueva etapa de investigación que integra el reconocimiento de gestos basado en visión a tecnologías de interacción multimodales humano-computadora y humano-robot”, dice Cohen.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Atrapando luz, mucha luz

Imagen:  Yanxia Cui
Metamateriales

Un nuevo diseño de un metamaterial por el MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) podría ser mucho más eficiente capturando la luz solar que las celdas solares existentes.

David L. Chandler, MIT News Office. Original (en inglés)

Los metamateriales son una nueva clase de sustancias artificiales con propiedades diferentes a cualquiera encontrada en el mundo natural. Algunos han sido diseñados para actuar como mantos de invisibilidad; otros como superlentes, sistemas de antena o detectores altamente sensibles. Ahora, investigadores en el MIT y en otras partes han encontrado una manera de usar metamateriales para absorber un amplio rango de luz con eficiencia extremadamente alta, lo cual dicen que podría llevar a una nueva generación de celdas solares y sensores ópticos.

Nicholas X. Fang, un profesor de Diseño de Ingeniería en el Departamento de Ingeniería Mecánica del MIT, dice que la mayoría de materiales delgados usados para capturar completamente la luz están limitados a un rango muy angosto de longitudes de onda y ángulos de incidencia. El nuevo diseño usa un patrón de crestas en forma de cuña cuyos anchos están precisamente sintonizados a diferentes para alentar y capturar la luz en un gran rango de ancho de banda y ángulos de incidencia.

Estos materiales pueden ser extremadamente delgados, ahorrando peso y costo. Fang compara las estructuras al caracol del oído interno, que responde a diferentes frecuencias de sonido en diferentes puntos a través de su estructura que se va estrechando. “Nuestros oídos separan diferentes frecuencias y las recolecta a diferentes profundidades”, dijo; similarmente, las crestas del metamaterial recolectan fotones a diferentes profundidades.

La estructura actual del material es grabada alternando capas de metal y un material aislante llamado dieléctrico, cuya respuesta a la luz polarizada puede ser variada al cambiar un campo eléctrico aplicado al material. La creación de este nuevo material es descrita en una revista académica que será publicada en la futura edición del diario Nano Letters. Una versión preliminar de la revista académica de Fang – realizada junto con investigadores de la Univerzidad Zhejiang y la Universidad Taiyuan en China, y la Universidad de Illinois – está disponible en línea ahora.

King Hung Fung, un postdoctorado del MIT y co-autor de la revista académica en Nano Letters, dice, “Lo que hemos hecho es diseñar una estructura de diente de sierra con múltiples capas que puede absorber un amplio rango de frecuencias” con una eficiencia de más del 95%. Previamente, dicha eficiencia solo podía ser alcanzada con materiales sintonizados a una banda muy estrecha de longitudes de onda. “La absorción de alta eficiencia había sido alcanzada antes, pero este diseño tiene una ventana muy amplia” para colores de luz, dice Fung.

Los metamateriales han sido “un tema muy popular esta década”, dijo, “por que pueden ayudarnos a diseñar materiales funcionales que interactuan con luz de formas no convencionales”. Usando el metamaterial sintonizado, dice, su equipo fue capaz de alentar la luz a menos de una centésima de su velocidad normal en un vacio, haciendo mucho más fácil atraparla dentro del material. “Cuando algo va muy rápido, es difícil atraparlo”, dijo, “así que lo alentamos y es más fácil de absorber”.

El material puede ser fácilmente fabricado usando equipo que ya es estándar en la fabricación de celdas fotovoltaicas convencionales. Aunque el trabajo inicial estuvo basado en simulaciones de computadora, el equipo trabaja ahora en experimentos de laboratorio para confirmar sus hallazgos.

Además de celdas solares, el diseño puede ser usado para hacer detectores infrarrojos eficientes para un rango selecto de longitudes de onda. “Podemos mejorar selectivamente la interacción del material con la luz infrarroja a las langitudes de onda que queremos”, dijo Fung.

Fang dice que por su naturaleza, el material sería un emisor y absorbedor muy eficiente de fotones – así que adicionalmente al uso potencial en nuevos tipos de celdas solares o detectores infrarrojos, el material podría ser utilizado para aplicaciones emisoras de luz infrarroja, como dispositivos para generar electricidad a partir de calor. Además, los investigadores dicen que el principio podría ser escalado y ser usado para capturar o emitir radiación electromagnética a otras longitudes de onda, como microondas y frecuencias de terahertz. Incluso podría ser usado para producir luz visible con un costo de energía extremadamente bajo, creando un nuevo tipo de foco de alta eficiencia.

Richard Averitt, un profesor de física en la Universidad de Boston que no estuvo involucrado en esta investigación, llama a la estructura con forma de diente de sierra desarrollada por este equipo “un acercamiento único e impresionante hacia crear absorbedores de ancho de banda funcionales” que podrían tener aplicaciones en detección térmica y en recolección de luz para aplicaciones de energía. Advierte que se requiere de más trabajo para facilitar la fabricación e integración de los materiales, pero agrega, “Esta es una intrigante estructura que alenta ondas que deben inspirar nuevos desarrollos en este campo”.

El trabajo fue patrocinado por la Fundación Nacional de Ciencia de los Estados Unidos, y la Fundación Nacional de Ciencia de China y la Oficina Asiática de Investigación y Desarrollo Aeroespacial.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Probando chips que no han sido construidos

Chip

Un nuevo sistema de simulación por software promete una evaluación mucho más precisa de prometedores – pero potencialmente llenos de fallas – diseños de chips con múltiples núcleos.

Larry Hardesty, MIT News Office. Original (en inglés)

Durante la última década, los fabricantes de chips de computadoras han estado aumentando la velocidad de sus chips al darles unidades de procesamiento extras, o “núcleos”. La mayoría de los fabricantes ahora ofrecen chips con ocho, 10 o incluso 12 núcleos.

Pero si los chips continúan mejorando a la tasa que nos hemos acostumbrado – doblando su poder alrededor de cada 18 meses – pronto requerirán cientos e incluso miles de núcleos. Investigadores académicos y de la industria están llenos de ideas para mejorar el rendimiento de chips con múltiples núcleos, pero siempre existe la posibilidad de que un acercamiento que parezca trabajar bien con 24 o 48 núcleos pueda introducir problemas catastróficos cuando el conteo de núcleos se vuelva más alto. Ningún fabricante de chips tomará el riesgo de un diseño innovador de chip sin evidencia abrumadora de que funciona como se anuncia.

Como una herramienta de investigación, un grupo del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) que se especializa en arquitectura computacional ha desarrollado un simulador de software, llamado Hornet, que modela el rendimiento de chips de múltiples núcleos mucho más precisos que sus predecesores lo hacen. En el Quinto Simposio Internacional de Redes-en-Chip en el 2011, el grupo tomó el premio a la mejor revista académica por trabajo en el que usaron el simulador para analizar una prometedora y muy estudiada técnica de computación de múltiples núcleos, encontrando una falla fatal que otras simulaciones habían dejado pasar. Y en una edición próxima de Transacciones en Diseño Ayudado por Computadora de Circuitos y Sistemas Integrados del IEEE (Institute of Electrical and Electronics Engineers), los investigadores presentaron una nueva versión del simulador que analiza el consumo de energía así como patrones de comunicación entre núcleos, los tiempos de procesamiento de tareas individuales, y patrones de acceso a la memoria.

El flujo de datos a través de un chip con cientos de núcleos es monstruosamente complejo, y simuladores de software previos han sacrificado algo de precisión por algo de eficiencia. Para simulaciones más precisas, los investigadores han usado típicamente modelos de hardware – chips programables que pueden ser reconfigurados para imitar el comportamiento de chips de múltiples núcleos. De acuerdo a Myong Hyon Cho, un estudiante de doctorado en el Departamento de Ingeniería Eléctrica y Ciencia Computacional (EECS – Electrical Engineering and Computer Science) y uno de los desarrolladores de Hornet, éste está diseñado para complementar, no competir con, esos otros dos acercamientos. “Pensamos que Hornet se sienta en el punto exacto entre los dos”, dijo Cho.

Varias tareas desarrolladas por los muchos componentes de un chip están sincronizadas por un reloj maestro; durante cada “ciclo del reloj”, cada componente realiza una tarea. Hornet es significativamente más lento que sus predecesores, pero puede proveer una simulación “con precisión de ciclo” de un chip con 1,000 núcleos. “‘Precisión de ciclos’ significa que los resultados son precisos al nivel de un ciclo sencillo”, explica Cho. “Por ejemplo, [Hornet tiene] la habilidad de decir, ‘Esta tarea toma 1,223,392 ciclos para finalizar'”.

Simuladores existentes son buenos al evaluar el desempeño general de chips, pero pueden dejar pasar problemas que aparecen solo en casos raros y patológicos. Hornet es mucho más probable que los encuentre, como lo hizo en el caso de la investigación presentada en el Simposio Reden-en-Chip. Ahí, Cho, su consejero y el profesor de Ingeniería Eléctrica y Ciencia Computacional Srini Devadas, y sus colegas analizaron una prometedora técnica de computación de múltiples núcleos en la que el chip pasa tareas computacionales a los núcleos guardando los datos pertinentes en lugar de pasar los datos a los núcleos realizando las tareas pertinentes. Hornet identificó el riesgo de un problema llamado bloqueo mutuo, que otros simuladores habían perdido. (El bloqueo mutuo es una situación en la que varios de los núcleos están esperando recursos – canales de comunicación o localidades de memoria – en uso por otros núcleos. Ningún núcleo abandonará el recurso hasta que se le ha dado acceso al que necesita, así que los ciclos del reloj avanzan sin fin sin ninguno de los núcleos haciendo nada).

Adicionalmente al identificar el riesgo de bloqueos mutuos, los investigadores también propusieron una manera de evitarlo – y demostraron que su propuesta funcionaba con otra simulación Hornet. Eso ilustra la ventaja de Hornet sobre sistemas de hardware: la facilidad con la que puede ser reconfigurado para probar propuestas de diseño alternativas.

Construir simulaciones que funcionaran en hardware “es más complicado que solo escribir software”, dice Edward Suh, un profesor asistente de ingeniería eléctrica y computacional en la Universidad Cornell, cuyo grupo usó una versión temprana de Hornet que solo modelaba la comunicación entre núcleos. “Es difícil decir si es inherentemente más difícil de escribir, pero al menos por ahora, hay menos infraestructura, y los estudiantes no saben esos lenguajes tan bien como saben los lenguajes de programación regulares. Así que por ahora, es más trabajo”. Hornet, dice Suh, podría tener ventajas en situaciones donde “quieres probar varias ideas rápidamente, con buena precisión”.

Suh apunta, sin embargo, que como Hornet es más lento que las simulaciones de hardware o las simulaciones de software menos precisas, “tiende a simular un corto período de la aplicación en lugar de tratar de ejecutar la aplicación completa”. Pero, agrega, “Eso es definitivamente útil si quieres saber si hay comportamientos anormales”. Y además, “hay técnicas que la gente usa, como muestreo estadístico, o cosas como esa para, digamos, ‘estas son porciones representativas de la aplicación'”.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/

A veces el camino más rápido no es una línea recta

Camino rápido mit
Grafica: Christine Daniloff

Nuevos métodos y software desarrollado en MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) pueden predecir caminos óptimos para vehículos submarinos automátizados.

David L. Chandler, MIT News Office. Original (en inglés)

A veces el camino más rápido del punto A al punto B no es una línea recta: por ejemplo, si estás bajo el agua y lidiando con corrientes fuertes y cambiantes. Pero encontrando la mejor ruta en dichas situaciones es un problema monumentalmente complejo – especialmente si tratas de hacerlo no solo por un vehículo submarino, sino para un enjambre de ellos moviéndose todos hacia destinos separados.

Pero eso es exactamente lo que el equipo de ingenieros en el MIT encontraron como hacerlo, con resultados para ser presentados en Mayo en la Conferencia Internacional de Robótica y Automatización del IEEE (Institute of Electrical and Electronics Engineers). El equipo, liderado por Pierre Lermusiaux, Profesor Asociado Doherty en Utilización Oceánica, desarrolló un procedimiento matemático que puede optimizar la planeación de caminos para vehículos submarinos automatizados (AUVs – Automated Underwater Vehicles), aún en regiones con complejas líneas costeras y fuertes corrientes cambiantes. El sistema puede proveer caminos optimizados para el tiempo más corto de viaje o para el más mínimo uso de energía, o maximizar la recolección de datos que es considerada más importante.

Colecciones de AUVs propulsados y AUVs deslizados (también llamados gliders) son utilizados comúnmente estos días para mapeo e investigación oceanográfica, para reconocimiento militar y protección de puertos, o para mantenimiento de pozos petroleros profundos y respuestas de emergencia. Hasta ahora, flotas de hasta 20 AUVs han sido desplegadas, pero en los próximos años flotas mucho más largas podrían entrar en servicio, dice Lermusiaux, volviendo la tarea computacional de planear caminos óptimos mucho más compleja.

Él agrega que los intentos previos de encontrar caminos óptimos para vehículos submarinos eran o imprecisos e incapaces de lidiar con corrientes cambiantes y topografía compleja, o requerían mucho poder computacional que no podría ser aplicado a controlar enjambres de vehículos robóticos en tiempo real.

Mientras que los investigadores han estudiado dichos sistemas por muchos años, “lo que faltaba era la metodología y el algoritmo”, dijo – las matemáticas que permitieran a una computadora resolver dichos acertijos de planeación de caminos rigurosamente pero lo suficientemente rápidos para ser útiles en despliegues en el mundo real. “Por que los entornos oceánicos son tan complejos” dijo, “lo que faltaba era la integración de predicción oceánica, estimación oceánica, control y optimización” para planear caminos para múltiples vehículos en una situación que cambia constantemente. Eso es lo que el grupo “Sistemas de Simulación, Estimación y Asimilación Multidisciplinaria” (MSEAS – Multidisciplinary Simulation, Estimation, and Assimilation Systems) del MIT, liderado por Lermusiaux, ha desarrollado.

Las simulaciones del equipo han probado exitosamente el nuevo algoritmo en modelos de entornos muy complejos – incluyendo un área de las Filipinas entre miles de islas con complejas líneas costeras, aguas poco profundas y múltiples corrientes cambiantes. Simularon una flota virtual de 1,000 AUVs, desplegados de uno o más barcos y buscando diferentes objetivos. Aumentando la complicación, el sistema que diseñaron puede incluso tomar en consideración zonas “prohibidas” que el vehículo debe evitar y obstáculos fijos que pueden afectar tanto el vehículo submarino y el flujo de la corriente, e incluso obstáculos en movimiento, como barcos pasando.

Tomando ventaja del “paseo gratis” ofrecido por las corrientes, el vehículo usualmente sigue caminos sorprendentemente indirectos, serpenteando alrededor en bucles y espirales que a veces parecen un camino aleatorio. Eso es por que puede ser mucho más rápido andar a la deriva con una corriente y luego girar que tratar de cruzar linealmente, peleando con el flujo de la corriente todo el tiempo. En otros casos, el AUVs puede encontrar un camino más rápido o más eficiente energéticamente al elevarse sobre, o sumergirse debajo de, chorros, corrientes, remolinos y otras características oceánicas. Incertidumbres en las predicciones oceánicas – y como afectan a los caminos óptimos – también puede ser considerado.

Adicionalmente a encontrar caminos que son más rápidos o más eficientes, el sistema permite que enjambres de vehículos recolectores de datos, recolecten los datos más útiles en el menor tiempo posible, dice Lermusiaux. Estos acercamientos optimizadores de datos podrían ser útiles para monitorear la pesca o para estudios biológicos o ambientales.

Mientras la metodología y los algoritmos fueron desarrollados para entornos submarinos, Lermusiaux explica que sistemas computacionales similares podrían ser usados para guiar vehículos automatizados a través de cualquier tipo de obstáculos y flujos – como vehículos aéreos lidiando con vientos y montañas. Dichos sistemas podrían incluso ayudar potencialmente a robots médicos miniatura a navegar a través de el sistema circulatorio, dijo.

El algoritmo permite control y ajustes en tiempo real – como para rastrear una columna de contaminación a su fuente, o para determinar como se está dispersando. El sistema también puede incorporar funciones de evasión de obstáculos para proteger a los AUVs.

El equipo incluyó a los estudiantes graduados de ingeniería Tapovan Lolla y Mattheus Ueckermann, Konuralp Yigit, y a los científicos investigadores Patrick Haley y Wayne Leslie. El trabajo fue patrocinado por la Oficina de Investigación Naval y por el Programa Colegial de Becas Marinas del MIT.

Glen Gawarkiewicz, un científico en la Institución Oceanográfica Woods Hole quien no estuvo involucrado en esta investigación, dice, “Este trabajo es significativo. Trae rigor al problema difícil de diseñar patrones de muestra para vehículos autónomos. Conforme las capacidades y el número de vehículos autónomos se incrementa, esta metodología será una importante herramienta en la oceanografía y otros campos”.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)