El nuevo recubrimiento promete terminar con el desperdicio de condimentos debido a la adhesión a los contenedores. El finalista de la competencia por 100,000 dólares del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) fue desarrollado por parte del grupo Varanasi.
Alissa Mallinson, Ingeniería Mecánica. Original (en inglés).
El grupo de investigación Varanasi, liderado por el profesor asociado Kripa Varanasi, tomó un respiro de su investigación sobre recubrimientos super-resbalosos y super-hidrofóbicos para equipos como turbinas de vapor y aviones, para presentar su más nueva invención en la competencia por 100,000 dólares de este año: LiquiGlide, un recubrimiento no tóxico, no adhesivo y super-resbaloso para el interior de botellas de condimentos. Hecho de materiales alimenticios, LiquiGlide es fácil de aplicar al empacado de comida y previene condimentos necios de pegarse cuando van saliendo.
Para las compañías de salsas alimenticias – y sus clientes – la fácil extracción de condimentos es un desafío constante. La mayoría de la gente ha experimentado la frustración que viene al batallar para expulsar un condimento como la salsa cátsup (ketchup), la mostaza o mayonesa con agitaciones furiosas o pura fuerza bruta. Ahora, un simple movimiento de la mano envía los condimentos deslizándose hacia afuera.
“Nuestro grupo de investigación está enfocado principalmente en los grandes problemas de la energía, agua y transportación”, dice Varanasi, “pero encontramos que las botellas no son algo pequeño, con el mercado de condimentos mundial abarcando alrededor de 17 mil millones de botellas”.
Con un mercado tan grande, los pequeños costos adicionales como el cargo de 20 centavos que pagan los clientes por esa pequeña tapa en botellas que se almacenan boca abajo puede llegar a costar miles de millones de dólares. Igual de importante, eliminar esas tapas especiales puede reducir la necesidad de plásticos en alrededor de 25,000 toneladas. LiquiGlide puede ahorrar a la industria alimenticia al asegurar que nada sea desperdiciado e incrementar las tasas de reciclaje al remover todos los restos de comida.
El proyecto fue nombrado finalista en la competencia por 100,000 dólares del MIT, pero el equipo se llevó a casa el premio Audience Choice – y acompañado de un premio de $2,000 dólares – por la invención amigable al consumidor. En las semanas después, el producto ha ganado atención de los medios nacionales como the Wall Street Journal y CNN entre muchos otros.
Junto con Varanasi, el equipo de LiquiGlide son J. David Smith, Christopher J. Love, Adam Paxson, Brian Solomon y Raveev Dhiman.
Va a ser una luna llena. De acuerdo al folclore americano nativo es la Luna fresa, llamada así porque la corta temporada de las fresas llega durante el mes de junio.
A las 3:00 am hora del pacìfico, antes del amanecer del lunes, 4 de Junio, la luna pasa directamente detrás de nuestro planeta. Un amplia extensión de terreno lunar alrededor del sur del cráter Tycho caerá bajo la sombra de la Tierra, produciendo el primer eclipse lunar de 2012. El punto máximo del eclipse será a las 4:04 am PDT, 37% de la superficie de la Luna estará en la oscuridad.
Debido a que solo una fracción de la Luna es la sombra, astrónomos le llaman a esto un eclipse parcial. Pero es totalmente bella.
El eclipse es visible en América del Norte y del Sur, Australia, partes del este de Asía y en todo el Océano Pacífico. En el Atlántico del lado de los Estados Unidos, el eclipse se produce justo cuando la luna se pone en el oeste – el momento perfecto para la ilusión de la luna.
Por razones que no se entiende totalmente por los Astrónomos o Psicólogos, la luna cerca del horizonte se mira anormalmente grande cuando un haz de ellas pasa a través de los árboles, construcciones y otros objetos de primer plano. De hecho, una Luna baja no es mayor que cualquier otra luna -cámaras lo demuestran – pero el cerebro humano insiste en lo contrario.
La luna eclipsada, colgando bajo en el oeste en la madrugada del 4 de Junio, parecería extra grande para los observadores de los Estados Unidos al este del Missisipi. El hecho de que el tamaño extra es solo una ilusión, de ningún modo le resta su atractivo visual.
La alineación Sol-Tierra-Luna, que causa este eclipse, es la segunda de tres alineaciones celestes rápidas. Primero fue el eclipse solar anular, del 20 de mayo, cuando la Luna se movió entre la Tierra y el Sol para convertir nuestra estrella en un “anillo de fuego”. El eclipse lunar del 4 de junio invierte el orden de la Tierra y la Luna, así que la luna es eclipsada en lugar del sol. Por último, tenemos el tránsito de Venus el 5 y 6 de Junio, cuando el segundo planeta pasa directamente entre la Tierra y el Sol.
Despierte antes del amanecer el 4 de junio y saboree el eclipse de la dulce Luna de fresa.
Hacer que las proteínas se formen en línea podría llevar a pruebas de laboratorio más similares a la vida.
David L. Chandler, MIT News Office. Original (en inglés).
Cuando los investigadores conducen experimentos sobre la manera en que las células crecen y responden a las señales externas, tienden a usar soluciones que son mucho más diluidas que los entornos aglomerados encontrados dentro de células vivientes. Ahora, una nueva investigación del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) muestra que los entornos diluidos podrían sesgar los resultados de dichos experimentos.
Usando una técnica que se asemeja más cercanamente al entorno aglomerado en células actuales, investigadores encontraron que ciertas moléculas “se organizan más que como esperaríamos que lo hicieran en el cuerpo”, dice Krystyn Van Vliet, Profesora de Desarrollo de Carreras de Ciencia e Ingeniería de Materiales en el MIT.
“La célula en el cuerpo vive en un entorno muy aglomerado”, dice Van Vliet. La mayoría de los investigadores han hecho su trabajo con soluciones diluidas, que son más fáciles de controlar y analizar, pero no han reconocido completamente como esto podría afectar los resultados. Resulta que producir un entorno más aglomerado “induce un alineamiento dramático de redes de proteínas fuera de la célula”, lo que a su vez causa que las células se alineen a su estructura interna, dice ella.
Científicos del Observatorio Nacional de Japón aprovecharon el eclipse anular de Sol ocurrido el pasado día 20 de este mes, para poder medir de manera precisa el diámetro del Sol y la medida obtenida es de 1,392,020 kilómetros.
El efecto óptico denominado Glóbulos de Baily (este efecto se observa al inicio y al final del eclipse, cuando los bordes de ambos discos coinciden, pero la luz de Sol pasa a través de la superficie irregular de la Luna y muestra nítidamente el borde de ésta) permitió a los científicos realizar los cálculos correspondientes.
Todas las mediciones anteriores realizadas por científicos de varios países para conocer el diámetro preciso del Sol, se dificultaban por su intenso brillo.
Los tripulantes de la Expedición 31 de la Estación Espacial Internacional lidiaron y conectaron la Cápsula Dragón de SpaceX a la estación espacial ayer viernes. Esta es la primera vez que una Empresa Comercial ha llevado a cabo este tipo de operación espacial.
“Hoy se marca otro paso decisivo en el futuro del vuelo espacial estadounidense”, dijo el Administrador de la NASA. “Ahora que una empresa de EE. UU. ha demostrado su capacidad para reabastecer la Estación Espacial, se abre una nueva frontera de oportunidades comerciales en el espacio – y nuevas oportunidades de creación de empleos aquí en los Estados Unidos. Al dar el relevo de transporte de la Estación Espacial al sector privado, La NASA se libera para llevar a cabo el realmente duro trabajo de enviar astronautas más lejos que nunca antes, al sistema solar. La administración de Obama nos ha situado en un ambicioso camino hacia adelante y el equipo de SpaceX y la NASA están demostrando que están a la altura”.
Siguiendo una serie de pruebas del sistema y un exitoso vuelo bajo a la Estación Espacial el jueves, la cápsula Dragón fue autorizada por la NASA para acercarse a la estación el viernes. Dragon entonces realizó una serie de maniobras de prueba complejas, ya que se acercó al laboratorio orbitando. Estas maniobras fueron necesarias para demostrar la capacidad de abortar y maniobrar de Dragon antes de acercarse y pasar a unos 20 metros (65 pies) de la “caja de atraque” donde fue lidiado por el astronauta de la NASA Don Pettit usando el brazo robótico de la Estación a las 9:56 a.m. EDT.
El astronauta de la Agencia Espacial Europea, Andre Kuipers, instaló la cápsula en la parte inferior del nodo Harmony de la estación a las 11:52 a.m., el astronauta Joe Acaba de la NASA completó las operaciones de atraque por medio de pernos en Harmony de Dragón a las 12:02 p.m.
La cápsula Dragón despegó el martes desde la Estación de la Fuerza Aérea de Cabo Cañaveral en Florida a bordo de un cohete Falcon 9 de SpaceX. La misión de demostración es la segunda bajo el programa de Servicios de Transportación Orbital Comercial de la NASA, que prevé inversiones destinadas a conducir misiones de abastecimiento para la Estación Espacial y estimular la industria espacial comercial en América.
Un nuevo asteroide de 30 metros denominado 2012 KP24, descubierto el día 23 de este mes por los astrónomos del observatorio Mount Lemmon, EE. UU., pasará a 56 mil kilómetros de la Tierra el próximo día 28 de este mes a las 16:18 GMT. El hecho de haber observado varias veces el asteroide, permitió a los científicos conocer su órbita y ésta cruza la órbita de nuestro planeta y la órbita del planeta Marte.
Este asteroide es parte de la familia de asteroides Apolo (cualquier grupo de asteroides cuyo perihelio está más cerca del sol que la órbita de la Tierra). Según los científicos en nuestro sistema solar existen cerca de cinco mil asteroides similares al que pasará, pero únicamente están localizados entre un 20 y 30 % del total estimado.
La nave espacial Cassini de la NASA hizo su aproximación más cercana a la pequeña luna de Saturno Metone como parte de una trayectoria que lo llevará a un sobrevuelo cercano a otra de las lunas de Saturno, Titán. El sobrevuelo a Titán pondría a la nave espacial en una órbita alrededor de Saturno que es inclinada en relación al plano del ecuador del planeta. El sobrevuelo a Metone tuvo lugar el 20 de Mayo a una distancia de cerca de 1,900 kilómetros (1,200 millas). Fue el sobrevuelo más cercano de Cassini de los tres kilómetros de ancho (dos millas de ancho) de la luna. Las mejores imágenes de Cassini anteriores fueron tomadas el 8 de junio de 2005, a una distancia de cerca de 225 kilómetros (140,000 millas), y apenas ve este objeto.
También el 20 de mayo, Cassini obtuvo imágenes de Tetis, una luna mayor de Saturno que estaba a una distancia de 1,062 kilómetros (660 millas). La nave espacial sobrevoló Tetis a una distancia de cerca de 54,000 kilómetros (34,000 millas)
El encuentro de la nave Cassini con Titan, la mayor luna de Saturno, el 22 de mayo, es el primero de una secuencia de sobrevuelos que pondrá a la nave espacial en una órbita inclinada. En su máximo acercamiento, Cassini volará dentro de aproximadamente 955 kilómetros (593 millas) de la superficie de la brumosa Titán. El sobrevuelo de Cassini alrededor de Saturno, tendrá una trayectoria con un ángulo aproximado de 16 grados, fuera del plano ecuatorial, que es el mismo plano en que los anillos de Saturno y la mayoría de sus lunas residen.
Propulsores a bordo de Cassini no tienen la capacidad de colocar la nave espacial en órbitas tan inclinadas. Pero los diseñadores de la misión han previsto las trayectorias que toman ventaja de la fuerza gravitacional ejercida por Titán para impulsar la nave Cassini a órbitas inclinadas. Durante los próximos meses, Cassini usará varios sobrevuelos a Titán para cambiar el ángulo de su inclinación, construyendo una encima de la otra hasta que Cassini esté orbitando Saturno a alrededor de 62 grados en relación al plano ecuatorial en 2013. Cassini no ha volado en estas órbitas inclinadas desde 2008, cuando orbitaba en un ángulo de 74 grados.
Este conjunto de órbitas inclinadas se espera que proporcione vistas espectaculares de los anillos y polos de Saturno. Además estudios de otras lunas de Saturno tendrán que esperar hasta alrededor del 2015, cuando Cassini regrese a una órbita ecuatorial.
“Llevar a Cassini a estas órbitas inclinadas va a requerir el mismo nivel de precisión de navegación que el equipo ha alcanzado en el pasado, porque cada uno de estos sobrevuelos de Titán se tienen que dar justo en el blanco”, dijo Robert Mitchell, director del programa Cassini del Laboratorio de Propulsión a Chorro de la NASA, en Pasadena, California. “Sin embargo, con cerca de ocho años de experiencia para confiar, no hay duda acerca de su capacidad para sacar esto adelante”.
Cassini descubrió Metone y otras dos lunas pequeñas, Palene y Anthe, entre las órbitas de Mimas y Encelado entre 2004 y 2007. las tres lunas diminutas, llamadas el grupo Alkyonides, están incrustadas en el anillo E de Saturno, y sus superficies son rociadas por partículas de hielo originadas de los chorros de agua helada, vapor de agua y compuestos orgánicos que emanan desde la zona del polo sur de Encelado.
La misión Cassini-Huygens es una proyecto cooperativo de la NASA, La Agencia Espacial Europea y la Agencia Espacial Italiana. JPL dirige la misión para la Dirección de Misiones y Científicas de la agencia en Washington. El Instituto Tecnológico de California, en Pasadena, dirige JPL para la NASA.
Estudio muestra que la deformación del pavimento bajo las llantas del vehículo crea una conducción en subida que incrementa el consumo de combustible.
Denise Brehm, Ingeniería Civil y Ambiental. Original (en inglés).
Un nuevo estudio por ingenieros civiles en el MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) muestra que usar pavimentos más rígidos en los caminos de los Estados Unidos podría reducir el consumo de combustible de vehículos hasta en un tres por ciento – un ahorro que representaría 273 millones de barriles de petróleo crudo por año, o $15.6 miles de millones de dólares al precio del combustible de hoy en día. Esto sería acompañado por un decremento anual en emisiones de CO2 de 46.5 millones de toneladas métricas.
El estudio, lanzado en un reporte reciente revisado por expertos, es el primero en usar modelado matemático en lugar de experimentos en el camino para ver el efecto del deformado del pavimento sobre el consumo de combustible del vehículo a través de la red de caminos entera de los Estados Unidos. Un artículo sobre este trabajo también ha sido aceptado para su publicación más tarde este año en el Registro de Investigación de la Transportación.
Al modelar las fuerzas físicas trabajando cuando una llanta de caucho rueda sobre el pavimento, los autores del estudio, el profesor Franz-Josef Ulm y el estudiante de doctorado Mehdi Akbarian, concluyen que debido a la manera en que la energía es disipada, el máximo desvío de la carga está detrás de la trayectoria del viaje. Esto tiene como efecto el hacer que las ruedas del vehículo manejen continuamente hacia arriba en una ligera cuesta, lo que incrementa el uso del combustible.
La deformación bajo las ruedas es similar a la de la arena en la playa bajo el pie: Con cada paso, el pie entra en la arena de talón a dedos, requiriendo que el peatón gaste más energía que cuando está caminando en una superficie dura. En los caminos, incluso con un incremento de uno por ciento en el consumo adicional de energía deja una huella ambiental substancial. Pavimentos más rígidos – que pueden ser alcanzados al mejorar las propiedades de los materiales o incrementando el grosor de las capas de asfalto, cambiando a una capa de concreto o estructuras compuestas de asfalto y concreto, o cambiando el espesor o composición de las sub-capas del camino – reduciría la deformación y reduciría la huella.
“Este trabajo es literalmente donde la llanta toca el camino”, dice Ulm, profesor en el Departamento de Ingeniería Civil y Ambiental. “Tenemos que encontrar maneras de mejorar la huella ambiental de nuestra infraestructura de caminos, pero todos los estudios empíricos previos para determinar los ahorros de combustible veían el impacto de la dureza y el tipo de pavimento para algunos pocos escenarios no concluyentes, y los hallazgos a veces diferían por una orden de magnitud. ¿En dónde encuentras caminos idénticos en los mismos suelos bajo las mismas condiciones?, no puedes. Tienes efectos secundarios. El acercamiento empírico no funciona. Así que usamos análisis estadístico para evitar esos efectos secundarios.
El nuevo estudio define los parámetros clave involucrados en analizar las propiedades estructurales (grosor) y materiales (rigidez y tipo de subrasante) de pavimentos. El modelo matemático está por lo tanto basado en el comportamiento mecánico real de los pavimentos bajo carga. Para obtener sus resultados, Ulm y Akbarian alimentaron su modelo de datos de 5,643 secciones representativas de los caminos de los Estados Unidos tomadas de los conjuntos de datos de la Administración Federal de Carreteras de los Estados Unidos. Estos datos incluyen información sobre los materiales de la superficie y subyacentes de pavimentos y los suelos debajo, así como el número, tipo y peso de los vehículos usando los caminos. Los investigadores también calcularon e incorporaron el área de contacto de las llantas del vehículo con el pavimento.
Ulm y Akbarian estiman que los efectos combinados de la dureza del camino y la deformación son responsables por un promedio anual de consumo de combustible extra de 7,000 a 9,000 galones (26,498 litros a 34,069 litros) por cada 1,609 metros de carretera en caminos de alto volumen (sin incluir los caminos más pesadamente transitados) en los 13.68 millones de kilómetros de carreteras que forman la red de caminos en los Estados Unidos. Dicen que hasta el 80 por ciento del consumo extra de combustible, en exceso al uso normal de combustible de los vehículos, podría ser reducido a través de mejoras en las propiedades básicas del asfalto, concreto y otros materiales utilizados para construir los caminos.
“Estamos desperdiciando combustible innecesariamente porque el diseño del pavimento ha estado basado solamente en minimizar el costo inicial más que el desempeño – qué tan bien se mantiene el pavimento – cuando también se deberían tomar en consideración la huella ambiental de los pavimentos basado en variaciones de condiciones externas”, dice Akbarian. “Ahora podemos incluir los impactos ambientales, el desempeño del pavimento y – eventualmente – un modelo de costo para optimizar el diseño del pavimento y obtener el costo más bajo y el impacto ambiental más bajo con el mejor desempeño estructural”.
Los investigadores dicen que el costo inicial extra por mejores pavimentos rápidamente se pagaría a sí mismo no solo en eficiencia del camino y en emisiones de CO2 reducidas, sino también en costos de mantenimiento reducidos.
“Hay un concepto erróneo de que si quieres ser más amigable con el entorno tienes que gastar más dinero, pero eso no es necesariamente verdad”, dice Akbarian. “En mejor diseño del pavimento sobre el tiempo de vida ahorraría mucho más dinero en costos de combustibles que el costo inicial de las mejoras. Y los departamentos de transportación de los estados ahorrarían dinero mientras reducen su huella ambiental en el tiempo, porque los caminos no se deteriorarán tan rápido”.
Esta investigación fue conducida como parte del Centro de Sustentabilidad del Concreto (Concrete Sustainability Hub) en el MIT, que está patrocinado por la Asociación del Cemento de Portland y la Fundación de Investigación y Educación del Concreto Mezclado Listo, con la meta de mejorar la huella ambiental de esa industria.
“Este trabajo no es sobre el asfalto contra el concreto”, dice Ulm. “La meta final es hacer la infraestructura de nuestra nación más sustentable. Nuestro modelo ayudará a hacer esto posible al darle a los ingenieros del pavimento una herramienta para incluir sustentabilidad como un parámetro del diseño, al igual que la seguridad, el costo y la calidad del paseo”.
“Esta investigación del MIT es pionera de un rigoroso marco de trabajo matemático relacionando el consumo de combustible con la deformación del pavimento predicha matemáticamente. Este marco de trabajo deja un cimiento para el desarrollo continuo y la mejora futura de modelos avanzados de interacción pavimento-vehículo”, dice Lev Khazanovich, un profesor de ingeniería civil en la Universidad de Minnesota quien no estuvo involucrado en esta investigación. “La integración de los resultados de este estudio con la Guía de Diseño de Pavimento Mecanístico-Empírico recientemente adoptada por la Asociación Americana de Oficiales de Transportación de Carreteras Estatales permitirá a las agencias de transporte tomar en consideración el consumo de energía del tráfico en las decisiones de diseño del pavimento. Esto hace la investigación de Akbarian y Ulm especialmente importante el día de hoy a la luz de los esfuerzos de las agencias de transporte por reducir la huella ambiental del sistema de transportación”.
Calcular la capacidad total de una red de datos es un problema notoriamente difícil, pero los teóricos de la información están comenzando a hacer algo de progreso.
Larry Hardesty, MIT News Office. Original (en inglés).
En sus primeros años, la teoría de la información – que nació de un artículo histórico en 1948 por alumno del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) y futuro profesor Claude Shannon – estuvo dominado por investigación de códigos de corrección de errores: ¿Cómo codificas la información para garantizar su transmisión fiel, aún en presencia de influencias corruptoras que los ingenieros llaman “ruido”?
Recientemente, uno de los desarrollos más intrigantes en la teoría de la información ha sido una tipo diferente de codificación, llamado codificación de red, en el que la pregunta es cómo codificar información para maximizar la capacidad de una red como conjunto. Para los teóricos de la información, era natural preguntar cómo estos dos tipos de codificación podían ser combinados: Si quieres a la vez minimizar los errores y maximizar la capacidad, ¿Qué tipo de codificación aplicas dónde, y cuándo haces la decodificación?
Lo que hace la pregunta particularmente difícil de responder es que nadie sabe cómo calcular la capacidad de datos de una red como un todo – o incluso si puede ser calculada. No obstante, en la primera mitad de un artículo de dos partes, que fue publicado recientemente en Transacciones de Teoría de la Información del IEEE, Muriel Médard del MIT, Michelle Effros del Instituto de Tecnología de California y el fallecido Ralf Koetter de la Universidad de Tecnología en Munich muientras que en una red cableada, la codificación de red y la codificación de corrección de errores pueden ser manejadas separadamente, sin reducción en la capacidad de la red. En la próxima segunda mitad del artículo, los mismos investigadores demuestran algunos límites en las capacidades de las redes inalámbricas, que podría ayudar a guiar investigación futura tanto en la industria como en la academia.
Una red de datos típica consiste de un arreglo de nodos – que podrían ser ruteadores en el Internet, estaciones base inalámbricas e incluso unidades de procesamiento en un solo chip – cada uno de los cuales puede comunicarse directamente con un algunos de sus vecinos. Cuando un paquete de datos llega a un nodo, el nodo inspecciona su información de direccionamiento y decide por cual de los varios caminos enviarlo.
Confusión calculada
Con la codificación de redes, por otro lado, un nodo revuelve los paquetes que recibe y envía los paquetes híbridos por caminos múltiples; en cada nodo subsecuente ellos son revueltos de nuevo en diferentes formas. Contraintuitivamente, esto puede incrementar significativamente la capacidad de la red entera: Paquetes híbridos llegan a su destino por caminos múltiples. Si uno de estos caminos está congestionado, o si uno o más de sus vínculos falla completamente, los paquetes que llegan por los otros caminos probablemente contendrán suficiente información para que el recipiente pueda armar el mensaje original.
Pero cada vínculo entre los nodos podría ser ruidoso, así que la información en los paquetes también necesita ser codificada para corregir errores. “Supón que soy un nodo en una red, y veo una comunicación entrando, y está corrupta por ruido”, dice Médard, una profesora de ingeniería eléctrica y ciencia computacional”. Podría tratar de remover el ruido, pero al hacer eso, estoy en efecto tomando una decisión justo ahora que quizá habría sido mejor tomada por alguien que podría tener más observaciones de la misma fuente.
Por otro lado, dice Médard, si un nodo simplemente reenvia los datos que recibe sin realizar ninguna correción de errores, podría terminar despilfarrando ancho de banda. Si el nodo toma toda la señal y no reduce su representación, entonces podría estar usando mucha energía para transitar ruido”, dice ella. “La pregunta es, ¿cuánto del ruido remuevo, y cuánto dejo?”.
En su primer artículo, Médard y sus colegas analizan el caso en el que el ruido en un vínculo dado no está relacionado a las señales viajando sobre otros vínculos, como sucede con la mayoría de las redes cableadas. En ese caso, mostraron los investigadores, los problemas de corrección de error y la codificación de red pueden ser separados sin limitar la capacidad de la red entera.
Vecinos ruidosos
En el segundo artículo, los investigadores abordan un caso en el que el ruido en un vínculo dado está relacionado a las señales en los otros vínculos, como es el caso de la mayoría de las redes inalámbricas, ya que las transmisiones de estaciones base vecinas pueden interferir una con la otra. Esto complica las cosas enormemente: En efecto, Médard apunta, los teóricos de la información aún no saben como cuantificar la capacidad de una simple red inalámbrica de tres nodos, en la que dos nodos se envían mensajes uno al otro por medio de un tercer nodo.
No obstante, Médard y sus colegas muestran ahora cómo calcular los límites superior e inferior en la capacidad de una red inalámbrica dada. Mientras que la brecha entre los límites puede ser muy grande en la práctica, conocer los límites todavía podría ayudar a los operadores de redes a evaluar los beneficios de investigación futura sobre codificación de red. Si la tasa de transferencia observada en una red en el mundo real está por debajo del límite inferior, el operador conoce la mínima mejora que el código ideal proveería; si la tasa de transferencia observada está por encima del límite inferior y por debajo del límite superior, entonces el operador conoce la máxima mejora que el código ideal podría proveer. Incluso si la máxima mejora solo traería un pequeño ahorro en los gastos operacionales, el operador podría decidir que investigación adicional en codificación mejorada no vale el dinero.
“El teorema de separación que ellos probaron es de interés fundamental”, dice Raymond Yeung, un profesor de ingeniería de información y co-director del Instituto de Codificación de Red en la Universidad China de Hong Kong. “Mientras que el resultado en sí mismo no es sorprendente, es algo inesperado que pudieron probar el resultado en un ajuste tan general”.
Yeung advierte, sin embargo, que mientras que los investigadores han “descompuesto un problema muy difícil en dos”, uno de esos problemas “sigue siendo muy difícil. … El límite en términos de la solución a otro problema que es difícil de resolver”, dice. “No está claro que tan ajustado es este límite; eso necesita investigación adicional”.
Una tecnología que imita la estructura de los ojos de una langosta se está aplicando ahora a un nuevo instrumento que podría ayudar a revolucionar la astronomía por rayos X y la seguridad de los astronautas en la Estación Espacial Internacional.
Científicos del Centro de Vuelos Espaciales Goddard de la NASA en Greenbelt, Maryland, están desarrollando el “Detector de rayos X Transitorios Langosta”, que esperan implementar en la Estación Espacial Internacional en tres o cuatro años. Desde su posición privilegiada en la estación orbital, el instrumento transversal que actualmente está siendo desarrollado por Jordan Camp, Scott Barthelmy y Gerry Skinner podría detectar con una precisión sin precedentes rayos X transitorios – los fugaces, difíciles de capturar, fotones de alta energía producidos durante las fusiones de un agujero negro y una estrella de neutrones, supernovas y estallidos de rayos gama, creadas mucho más lejos en el universo primitivo.
Pero la tecnología del ojo de langosta también podría llevar a cabo otro trabajo muy necesario.
Podría comprobar si hay fugas de amoníaco en la Estación Espacial Internacional – un problema que los ingenieros del Centro Espacial Johnson de la NASA en Houston, Texas, han identificado como necesitada de una solución. El amoníaco anhidrido, un compuesto tóxico de nitrógeno e hidrógeno, se utiliza como un refrigerante que ayuda a regular la temperatura a bordo de la Estación. En la actualidad, las fugas se escuentran a niveles aceptables, pero un aumento repentino podría suponer serios riesgos a los astronautas, Dijo Camp.
Nueva aplicación para tecnología establecida
La tecnología Langosta no es nueva. En primer lugar concebida como una radiografía del monitor de todo el cielo por el científico Roger Angel de la Universidad de Arizona en la década de 1970, imita la estructura de los ojos del crustáceo, que se compone de celdas largas y estrechas que cada una captura una pequeña cantidad de luz, pero desde muchos ángulos diferentes. Solo entonces es la luz enfocada en una sola imagen.
La óptica de los instrumentos de rayos X de la Langosta funcionarían de la misma manera. Sus ojos son una placa de microcanal, una losa delgada y curva de material salpicado con pequeños tubos a través de la superficie. La luz de rayos X entra en estos tubos desde múltiples ángulos y se enfoca a través de reflexión incidental de pastoreo, dando a la tecnología un amplio campo de visión necesario para encontrar y crear la imagen de eventos transitorios que no se pueden predecir con antelación. El detector Langosta es único en que es altamente sensible y proporciona un amplio campo de visión y de alta resolución angular, dijo Camp.
Desde que Angel concibió por primera vez el concepto, los astrónomos de la Universidad de Leicester en Leicester, Inglaterra, han madurado la tecnología y han construido un instrumento para volar en BepiColombo, una misión a Mercurio desarrollada conjuntamente por la Agencia Espacial Europea (ESA) y la Agencia de Exploración Aeroespacial de Japón. ESA planea lanzar la nave espacial en 2014.
Lo que es nuevo es “lo que queremos hacer con él”, Camp dijo. “La innovación está utilizando la tecnología Langosta para una aplicación transversal. Queremos utilizar la tecnología en una nueva forma para promover tanto la astrofísica como los vuelos espaciales tripulados”.
Para avanzar en el concepto de doble uso, el equipo está usando Desarrollo e Investigación Interna Goddard y apoyo del jefe del Fondo de Innovación del Centro de Tecnología de la oficina de la NASA, para ensamblar y probar un prototipo equipado con una placa de microcanal disponible en el mercado, un detector de dispositivo de carga acoplado, y la electrónica asociada.
Recolección de rayos X transitorios de campo amplio
Con su sensibilidad aumentada y un amplio campo de visión, dijo Camp, el instrumento podría ser capaz de detectar emisiones de rayos X transitorios desde una gran porción del cielo, dando a los científicos una vista sin precedentes de fusiones de agujeros negros, supernovas, e incluso explosiones de rayos gama en el universo muy lejano. Los rayos X transitorios son ahora difíciles de detectar debido a que estas fuentes iluminan sin previo aviso y luego desaparecen con la misma rapidez.
Él también cree que el instrumento podría trabajar en conjunto e incluso extender la sensibilidad del Observatorio de Ondas gravitacionales de Interferómetro Láser (LIGO -Laser Interferometer Gravitational-Wave Observatory), un experimento financiado por la Fundación Nacional de Ciencia que ha buscado las ondas gravitacionales desde 2002. Las ondas gravitacionales, postuladas por vez primera por Albert Einstein, son débiles ondulaciones en el espacio-tiempo que teóricamente suceden durante eventos poderosos masivos, tales como los agujeros negros o fusiones de estrellas de neutrones binarias.
Los detectores de ondas gravitacionales no se localizan bien. Usado en conjunto con el detector Langosta enfocándose, sin embargo, los científicos serían capaces de concentrarse en la localización de la fuente, dijo Camp.
Detección de fugas de amoníaco en la Estación Espacial Internacional
Igual de emocionante, Camp dijo, es la forma en que podría utilizar la tecnología para detectar fugas de amoníaco. El amoníaco anhidro corre a través de tubos conectados a enormes paneles del radiador, localizados fuera de la Estación Espacial Internacional. Como el amoníaco circula a través de tubos, se libera calor en forma de radiación infrarroja. En resumen, ayuda a regular temperaturas a bordo. Posiblemente debido a impactos de micrometeoritos o estrés térmico-mecánico, estás lineas actualmente tienen fugas.
La tecnología Langosta podría ayudar, dijo Camp. Con esta aplicación, sin embargo, el instrumento podría requerir la adición de un dispositivo especializado llamado un cañón de electrones, que podría bombardear las superficies con haces de electrones en niveles específicos de energía. Los elementos que entran en contacto con estos haces de electrones se excitan, produciendo rayos X en niveles específicos de energía.
En este caso, el instrumento, una vez conectado al brazo robótico de la estación espacial, se extendería sobre las líneas de refrigerante y paneles del radiador en busca de nitrógeno, y más específicamente los rayos X generados por el elemento. Si los rayos X del nitrógeno son detectados, su presencia puede indicar fugas ya que el amoníaco que es un compuesto de nitrógeno e hidrógeno.
Skinner ha tomado la delantera en el ensamblaje y las pruebas, un prototipo detector de comprobación de fugas y ha logrado recientemente producir exitosamente una imagen de rayos X de una pequeña fuga de nitrógeno en un sistema de vacío de laboratorio. Barthelmy, mientras tanto, está estudiando los problemas del sistema involucrado en el despliegue de un sistema langosta de uso doble en la estación espacial internacional.
“Muchas personas están entusiasmadas con las posibilidades de este instrumento transversal por excelencia”, dijo Camp. “Con ayuda de nuestro programa IRAD, planeamos avanzar en los niveles de preparación tecnológica de nuestro instrumento propuesto. Veremos a donde va. Creemos que tiene un gran potencial”.