Físicos del MIT dicen haber demostrado que un LED puede emitir más poder óptico que el poder eléctrico que consume. Esto no viola la primera ley de la termodinámica, el resto del poder óptico proviene del calor en el LED.
En sus experimentos, los investigadores redujeron la energía de entrada a solo 30 picowatts y midieron una salida de 69 picowatts de luz, una eficiencia eléctrica del 230%. Los investigadores tomaron ventaja de pequeñas cantidades de calor para emitir más poder del consumido, este calor proviene de vibraciones en el retículo atómico del dispositivo que ocurre debido a la entropía. El LED parece funcionar como una bomba de calor.
Los investigadores han descubierto una estrella de neutrones que por primera vez estalla como se predijo.
Jennifer Chu, MIT News Office. Original (en inglés)
Por primera vez, investigadores del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) y en otros lugares han detectado todas las fases de combustión termonuclear en una estrella de neutrones. La Estrella, localizada cerca del centro de la galaxia en el cúmulo globular Terzan 5, es un “estallido modelo” (model burster), dice Manuel Linares, un Post doctorado Kavli en el Instituto de Astrofísica e Investigación Espacial del MIT.
Linares y sus colegas del MIT, de la Universidad de McGill, la Universidad de Minnesota y la Universidad de Amsterdam analizaron observaciones de rayos X del satélite X-ray Timing Explorer (RXTE), y descubrieron que la estrella es la primera de su tipo en estallar de la forma que los modelos predijeron. Además, el descubrimiento podría ayudar a explicar por qué dicha estrella modelo no se había detectado hasta ahora. Una revista académica se publicará en la edición del 20 de Marzo de The Astrophysical Journal (El Diario Astrofísico), con los detalles de los hallazgos del grupo.
“Estos son laboratorios extremos”, dice Linares. “Podemos estudiar la física fundamental observando lo que sucede en y alrededor de la superficie de las estrellas de neutrones”.
Un ambiente al rojo vivo
Las estrellas de neutrones surgen típicamente de un colapso de estrellas masivas. Estos restos son hechos casi totalmente de neutrones, y son increiblemente densos – alrededor de la masa del sol, pero comprimida en una esfera de solo unos pocos kilómetros de ancho. Por 3 décadas, astrofísicos han estudiado estrellas de neutrones para entender como se comporta la materia ultradensa.
En particular, los investigadores se han enfocado en las superficies extremadamente volátiles de las estrellas de neutrones. En un proceso llamado acreción, plasma al rojo vivo extraído de estrellas vecinas que llueven sobre la superficie de una estrella de neutrones con una fuerza increíble – equivalente a 100 kilogramos (220 libras) de materia estrellándose en un área del tamaño de una moneda cada segundo. A medida que más plasma cae, se forma una capa de combustible en la superficie de la estrella de neutrones que se acumula a un cierto nivel, entonces explota en una reacción de fusión termonuclear. Esta explosión puede ser detectada como rayos X en el espacio: Cuanto más grande es la explosión, mayor será la intensidad de los rayos X, que puede ser medida como un pico en los datos de satélite.
Los investigadores han desarrollado modelos para predecir cómo una estrella de neutrones debe explotar, basado en que tanto plasma la estrella esta atrayendo a su superficie. Por ejemplo, mientras más y más plasma cae sobre una estrella de neutrones, las explosiones deben ocurrir más frecuentemente, resultando en más picos de rayos X. Los modelos han pronosticado que en las más altas tasas de acreción de masa, el plasma cae a una velocidad tan alta que la fusión termonuclear es estable, y se produce continuamente. sin explosiones gigantes.
Sin embargo, en la últimas décadas, según observaciones de rayos X cerca de 100 estrellas de neutrones que están estallando han fallado para validar estas predicciones teóricas.
“Desde finales de los 70, vimos sobre todo explosiones a bajas tasas de acreción de masa, y pocos o ningún estallido en las altas tasas de acreción de masa”, dijo Linares. “Debe estar sucediendo, pero desde hace tres décadas, no lo veíamos. Ese es el rompecabezas”.
Los picos en los datos
A finales de 2010, el satélite RXTE detectó picos de rayos X de un sistema estelar binario – dos estrellas ligadas por gravedad y orbitando cerca una de la otra – en Terzan 5. Linares y sus colegas obtuvieron datos desde el satélite y analizaron los datos buscando picos característicos.
El equipo encontró que las estrellas de neutrones del sistema, en efecto exhiben patrones de rayos X consistente con bajas tasas de acreción de masa, en la que el plasma cayó lentamente a la superficie. Estos patrones parecían grandes picos en los datos, separados por largos períodos de poca actividad.
Para su sorpresa, los investigadores encontraron evidencia de mayores tasas de acreción de masa, donde más plasma cae con mayor frecuencia – pero en estos casos, los datos de rayos X mostraron pequeños picos, espaciados mucho más cerca. Incluso todavía más altos, los datos parecían nivelarse, pareciendo una onda oscilando. Linares interpretó esta última observación como un signo de quema marginalmente estable: una etapa donde una estrella de neutrones que atrae plasma a su superficie a una velocidad tan alta que reacciones de fusión nuclear toman lugar uniformemente a través de la capa de plasma, sin exhibir grandes explosiones o picos.
“Vimos exactamente la evolución que la teoría predice, por primera vez”, dice Deepto Chakrabarty, profesor de física en MIT y miembro del equipo de investigadores. “Pero la pregunta es, ¿porqué no vimos eso antes?”.
Vuelta, vuelta, vuelta.
El equipo pronto identificó una posible explicación comparando la estrella de neutrones con otras que han sido estudiadas en el pasado. La gran diferencia que encontraron fue que la estrella de neutrones en cuestión mostró un ritmo mucho más lento de rotación. Aunque la mayoría de estrellas de neutrones giran vertiginosamente de 200 a 600 veces por segundo, esta nueva estrella gira mucho más lentamente, a 11 revoluciones por segundo.
El grupo razonó que para predecir el comportamiento explosivo, los modelos existentes han fallado en considerar el período de rotación de la estrella. La razón de que esta nueva estrella coincide con los modelos tan bien, dice Linares, es porque su tasa de rotación es casi despreciable.
Todavía no está claro exactamente cómo la rotación afecta la combustion termonuclear, aunque Linares tiene una corazonada: La rotación puede causar fricción entre capas de plasma y la superficie de una estrella de neutrones.
“Eso es algo que necesitamos mirar”, dice Linares. “Y ahora, los modelos tienen que incorporar la rotación y tendrán que explicar exactamente cómo funciona la física”.
Coleman Miller, profesor de astronomía en la Universidad de Maryland, está de acuerdo en que la rotación puede ser el factor más importante que los modelos han pasado por alto. Sin embargo, el dice que diseñando modelos con la rotación en mente es una hazaña increíblemente intensiva de datos, dado que la fusión termonuclear a menudo se produce con una rapidez increíble, en pequeñas áreas de una estrella de neutrones.
“Si vas a modelar completamente una explosión, tienes que resolver microsegundos y centímetros”, dice Miller, quien no tomó parte en la investigación. “Ningún ordenador ha sido diseñado para esto. Así que estas son sugerencias interesantes y probables, pero va a ser profundamente difícil confirmar en una forma definitiva”.
Un nuevo estudio examina maneras de prevenir la acumulación de impurezas en el reciclaje de aluminio.
David L. Chandler, MIT News Office. Original (en inglés)
El Aluminio ha sido por mucho tiempo el ejemplo del reciclaje. Alrededor de la mitad de todo el aluminio utilizado en los Estados Unidos ahora es reciclado, y este reciclaje tiene beneficios claros y dramáticos: Libra por libra, toma de nueve a 18 veces más energía producir aluminio de materiales en bruto que de material reciclado.
Por que ahorra tanta energía – y por lo tanto dinero – el reciclaje de aluminio continua expandiéndose. Pero un nuevo análisis del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) encuentra que esta expansión podría encontrarse con problemas a menos que se tomen medidas para reducir las impurezas que pueden acumularse conforme el aluminio es reciclado una y otra vez: todo desde la pintura y las etiquetas en las latas a otros metales que accidentalmente son mezclados. Dichas impurezas continuarán acumulándose, dicen los investigadores del MIT, pero pueden ser manejadas para mantener la acumulación a niveles aceptables y se toman algunos pasos extras mientras los bienes reciclados son organizados, o durante el proceso de fundido.
Los investigadores del MIT Randolph Kirchain y Elsa Olivetti, del Laboratorio de Sistemas Materiales, junto con Gabrielle Gaustad del Instituto de Tecnología Rochester, publicaron sus hallazgos en el diario Resources, Conservation and Recycling (Recursos, Conservación y Reciclaje).
Un productor mayor de aluminio solicitó este análisis para ayudarlo a decidir si instalar sistemas mejorados de separación para prepararse para impurezas que podrían volverse más serias con el paso del tiempo. “No podían justificar esto en su negocio basado en lo que está sucediendo hoy”, dijo Kirchain – pero los análisis de su equipo mostraron que tendría sentido instalar dichos sistemas en anticipación de cambios futuros.
Por ahora, el problema sigue siendo manejable, dice Kirchain, por que los diferentes usos requieren de diferentes grados de aluminio. Por ejemplo, bloques de motor de aluminio (una parte de los motores de autos), uno de los mayores mercados para el material reciclado, pueden hacerse de metal con niveles de impurezas relativamente altos sin sufrir ninguna pérdida en rendimiento o durabilidad. Pero aplicaciones más especializadas, como circuitos electrónicos o materiales aeroespaciales, requieren de pureza mucho más alta.
“Hay un gran rango de tolerancia a impurezas”, dice Olivetti. “La pregunta es, ¿Cómo será el balance de dichos mercados en el futuro comparado con los tipos de materiales que están saliendo a través del flujo de reciclaje?”.
El estudio encontró muchas técnicas disponibles para reducir las impurezas en el aluminio reciclado. En algunos casos, estas tecnologías son simplemente extensiones de aquellas ya en uso en la separación inicial de aluminio de menes (mineral del que se puede extraer un elemento) en bruto; otras son extensiones de procesos utilizados para separar diferentes materiales del flujo siendo reciclado. La mayoría de estos sistemas son difíciles de agregar a plantas ya existentes, encontró el estudio, así que tiene más sentido económico agregarlos conforme nuevas plantas sean construidas, incluso si aún no son necesitados.
“Continuamos recolectando más y más chatarra,” dice Kirchain, quien sugiere que “probablemente tendremos más y más problemas” con la acumulación de impurezas. Hasta ahora, los operadores de plantas fundidoras de aluminio han podido acomodar variaciones en la calidad. “Si el material que entra está más contaminado, tendrán que desviarlo hacia aplicaciones menos estrictas,” dijo. El material más limpio está reservado para las aplicaciones más especializadas, como las partes de aviones.
Kirchain dice que el análisis de su equipo, aunque dirigido específicamente al aluminio – también es un intento de desarrollar métodos para analizar el ciclo vital de otros materiales que se están volviendo partes significativas del flujo de reciclaje. E incluye análisis de factores sociales gobernando las decisiones de la gente sobre la eliminación de materiales, que puede afectar cuanto material contaminante termina en cierto flujo de desperdicios – o si algún material potencialmente útil termina en un vertedero de basura en vez de ser re-usado.
Para maximizar la utilidad del aluminio reciclado, así como el de otros materiales reciclados, hay una necesidad de más investigación sobre reducir contaminantes acumulados, dice Kirchain. “Esta es un área tecnológica en la que se ha invertido muy poco”. dijo. “La tecnología para lidiar con basura no es un campo emocionante, de alto perfil, pero hay valor real en invertir en esto”.
David Leon, un ingeniero en la división de tecnología de fundición de Alcoa Technology, quien no estuvo involucrado en este estudio, dice, “Desarrollando metodologías para incrementar el uso de chatarra que va disminuyendo en calidad es de mayor importancia para la industria. Igualmente importante es el desarrollo de herramientas para hacer las decisiones correctas con respecto a la implementación de estas tecnologías”.
El agua de lluvia puede proveer una alternativa al agua de suelo contaminada en naciones en desarrollo, pero se necesitan sistemas para mantenerla limpia.
David L. Chandler, MIT News Office. Original (en inglés)
En una remota aldea llamada Bisate en la nación desesperadamente pobre de Rwanda, una clínica enfrentó deficiencias crónicas de agua durante las dos temporadas de sequía anuales en la nación. A veces simplemente no había la suficiente agua disponible para que los pacientes seriamente deshidratados bebieran, o para que los trabajadores de la salud mantuvieran estándares básicos de saneamiento.
Recolectar el agua de lluvia durante los períodos lluviosos era la respuesta obvia, pero encontrar como hacerlo de manera segura y económica no era un problema trivial: ¿Qué tan grandes debían ser los tanques de recolección? ¿y cuánta agua podría ser utilizada para evitar contaminar la fuente con tierra, polvo y desechos animales que se acumulan en un techo durante una temporada de sequía?
Proveyendo respuestas a esas preguntas se convirtió en el foco de un proyecto de tesis de maestría para Kelly Doyle, un antiguo estudiante graduado de Ingeniería Civil y Ambiental, quien trabajo con Peter Shanahan. Los resultados de esa investigación acaban de ser publicados en el Journal of Water, Sanitation and Hygiene for Development (Diario de Agua, Saneaminto e Higiente para el Desarrollo).
“Ciertas áreas dependen casi enteramente de agua de lluvia” para agua limpia y potable, dice Shanahan. “Internacionalmente, es un tema emergente de interés” encontrar maneras de hacer los sistemas de recolección de agua de lluvia más seguros y más confiables.
El campo de investigación llevado a cabo por el equipo fue hecho en cooperación con el Fondo Internacional de Gorilas Dian Fossey, que estaba trabajando en restaurar la clínica de salud en Bisate. Los investigadores estudiaron tres sistemas de recolección ahí: uno en la clínica, uno en una escuela local y uno en la sede de la fundación. El Fondo Fossey quería proveer agua limpia a la aldea para proteger los gorilas de montaña que estaban enfermándose de parásitos e infecciones de gente que se metía en el bosque lluvioso a recolectar agua durante la temporada seca.
Durante esas temporadas secas, Shanahan dice, la aldea “no tenía suficiente agua para que la gente se lavara las manos, o para saneamiento básico o para hidratación”.
Además de encontrar tamaños y materiales óptimos para tanques de almacenamiento de agua de lluvia, Doyle realizó un análisis detallado de métodos para desviar el llamado “primer-flujo” de agua lejos del tanque. Los sistemas más sencillos y más confiables, según lo que encontró el equipo, consistieron en un desviador – una distancia adicional de tubería conectada al sistema de alcantarillado que se llenaría primero con cualquier lluvia fresca. Una vez que la tubería se llenaba, cualquier corriente adicional de agua pasaba por encima de ella y entraba en el tanque de recolección.
Entre lluvias, un tapón al final de la tubería desviadora podría ser abierta para drenar el agua junto con cualquier sedimento que cargara, preparando el sistema para la próxima lluvia. Las dimensiones del tubo desviador determinarían automáticamente cuanto de la lluvia de un cierto techo podría ser desviada cada vez.
Un estudio de la hidrología y geología locales mostraron que recolectar el agua de la lluvia era la única opción viable para mejorar el suministro de agua, dice Shanahan. Entonces por un período de dos años – ayudado por algo de trabajo previo realizado por investigadores de la Universidad Tufts – el equipo ayudó a la fundación a calcular el tamaño correcto para grandes tanques de almacenamiento plástico para un sistema de recolección de agua de lluvia, y entonces agregó un sistema para probar la cantidad de sedimentos y contaminación microbiana que podría ser separada por varios tamaños de tubos de desvío.
La simple configuración de tubería de desvío, que no requiere ninguna intervención además de vaciarla entre tormentas, resultó hacer una diferencia significativa: Los sedimentos en el agua se redujeron a la mitad, y la contaminación microbiana fue lo suficientemente reducida para pasar los estándares de la Organización Mundial de la Salud para beber agua. Menos del 2 por ciento de la cantidad total de agua recolectada fue perdida en el proceso.
Mientras que dichos tubos de desvío han sido usados previamente, dijo Shanahan, “el efecto en la demanda nunca se había visto de manera rigurosa”.
Richard Vogel, un profesor de ingeniería civil y ambiental en Tufts, dice, “Metodos rigurosos para el diseño y la operación de los sistemas recolectores de agua de lluvia pueden tener un tremendo impacto en el mundo en desarrollo, donde dichos sistemas comúnmente son la única fuente de agua”. Agrega, “Ciertamente referiré esta revista académica a todos mis estudiantes graduados que están trabajando en esta área”.
Revirtiendo el bloqueo de genes del Alzheimer puede restaurar la memoria y otras funciones cognitivas, según los neurocientíficos la enzima HDAC2 podría ser un buen objetivo para nuevas drogas.
Anne Trafton, MIT News Office Original (en inglés)
Neurocientíficos del MIT (Massachusetts Institute of technology – Instituto de Tecnología de Massachusetts) mostraron que una enzima sobreproducida en los cerebros de los pacientes de Alzheimer crea un bloqueo que apaga genes necesarios para formar nuevas memorias. Además, al inhibir esa enzima en ratones, los investigadores pudieron revertir los síntomas del Alzheimer.
El descubrimiento sugiere que drogas que tengan como objetivo la enzima, conocida como HDAC2, podrían ser un nuevo acercamiento prometedor para tratar la enfermedad, que afecta a 5.4 millones de estadounidenses. El número de víctimas de Alzheimer a nivel mundial se espera que se duplique cada 20 años, y recientemente el presidente Barack Obama programó una fecha límite del 2025 para encontrar un tratamiento efectivo.
Li-Huei Tsai, líder del equipo investigador, dice que los inhibidores de HDAC2 podrían ayudar a alcanzar esa meta, aunque probablemente tomaría al menos 10 años desarrollar y probar dichas drogas.
“Yo realmente avocaría fuertemente por un programa activo para desarrollar agentes que puedan contener la actividad del HDAC2”, dice Tsai, directora del Instituto Picower para el Aprendizaje y la Memoria en el MIT. “La enfermedad es tan devastadora y afecta a tanta gente que animaría a más gente a pensar sobre esto”.
Tsai y sus colegas reportan los descubrimientos en la edición en línea del 29 de Febrero de Nature. El autor líder de la revista académica es Johannes Gräff, un postdoctorado en el Instituto Picower.
Modificación genómica
Las histona deacetilasa (HDAC) son una familia de 11 enzimas que controlan la regulación de genes al modificar histonas – proteínas alrededor de las cuales el ADN es puesto en colas, formando una estructura llamada cromatina. Cuando las HDACs alteran una histona a través de un proceso llamado deacetilación, la cromatina se vuelve más densamente empacada, provocando que los genes en la región tengan menos probabilidades de ser expresadas.
Los inhibidores pueden revertir este efecto, abriendo el ADN y permitiendo que sea transcrito.
En estudios previos, Tsai había mostrado que HDAC2 es un regulador clave de aprendizaje y memoria. En el nuevo estudio, su equipo descubrió que inhibiendo HDAC2 puede revertir los síntomas de Alzheimer en ratones.
Los investigadores encontraron que en ratones con síntomas de Alzheimer, la HDAC2 (pero no los otros HDACs) es muy abundante en el hipocampo, donde se forman las nuevas memorias. HDAC2 era comúnmente encontrada pegada a los genes involucrados en la plasticidad sináptica – la habilidad del cerebro de fortalecer y debilitar conexiones entre neuronas en respuesta a nueva información, lo cual es crítico para formar memorias. En los ratones afectados, esos genes también tenían niveles mucho más bajos de acetilación y expresión.
“No es solo uno o dos genes, es un grupo de genes que trabajan juntos para concertar la diferentes fases de la formación de memorias”, dice Tsai. “Con semejante bloqueo, el cerebro realmente pierde la habilidad de responder rápidamente a la estimulación. Puedes imaginarte que esto creó un enorme problema en términos de la función de aprendizaje y memoria, y quizá otras funciones cognitivas.
Los investigadores entonces apagaron HDAC2 en el hipocampo de ratones con síntomas de Alzheimer, utilizando una molécula llamada “short hairpin RNA” (shRNA), que fue diseñado para unirse al mensajero RNA (Ácido Ribonucleico) – la molécula que carga las instrucciones genéticas del ADN al resto de la célula.
Con la actividad del HDAC2 reducida, la histona deacetilasa regresó, permitiendo que los genes requeridos para la plasticidad sináptica y otros procesos de aprendizaje y memoria sean expresados. En ratones tratados, la densidad sináptica fue enormemente incrementada y el ratón recuperó funciones cognitivas normales.
“Este resultado realmente promueve la noción de que si hay algún agente que pueda selectivamente reducir HDAC2, verá muy benéfico”, dijo Tsai.
Los investigadores también analizaron cerebros de pacientes de Alzheimer que murieron y encontraron niveles elevados de HDAC2 en el hipocampo y la corteza entorrinal, los cuales juegan papeles importantes en el almacenamiento de memoria.
“Lo que es realmente valioso es que [Tsai] identificó que HDAC está involucrada, así como un camino delineado sobre como puede llevar a la memoria afectada. Es un estudio realmente completo y bien ejecutado”, dijo Brett Langley, director de epigenética neuronal en el Centro de Rehabilitación Burke y profesor asistente de neurología en la Escuela Médica Weill Cornell, quien no estuvo involucrado en esta investigación.
Revirtiendo el bloqueo
El descubrimiento puede explicar por que las drogas que limpian las proteínas beta-amiloide de los cerebros de pacientes con Alzheimer solo han ofrecido mejoras modestas, o ninguna, en pruebas clínicas, dice Tsai.
Se sabe que las proteínas beta-amyloide se agrupan en los cerebros de los pacientes de Alzheimer, interfiriendo con un tipo de receptor celular necesitado para plasticidad sináptica. El nuevo estudio muestra que la beta-amiloide también estimula la producción de HDAC2, posiblemente iniciando el bloqueo del aprendizaje y los genes de la memoria.
“Pensamos que una vez que este bloqueo epigenético de expresiones de genes está acomodado, limpiar la beta-amiloide podría no ser suficiente para restaurar la configuración activa de cromatina”, dice Tsai.
El atractivo de los inhibidores de HDAC2, dice Tsai, es que podrían revertir los síntomas incluso después de que el bloqueo está bien establecido. Sin embargo, se requiere de mucho más desarrollo de drogas antes de que dicho compuesto pueda entrar a la fase de pruebas clínicas. “Es realmente difícil de predecir”, dice Tsai. “Pruebas clínicas probablemente están a cinco años de distancia. Y si todo va bien, convertirse en una droga aprobada probablemente tomaría al menos 10 años”.
Algunos inhibidores de HDAC, no específicos al HDAC2, han sido probados en pruebas clínicas como drogas para el cáncer. Sin embargo, para tratar el Alzheimer se requiere de un acercamiento más selectivo, dice Tsai. “Quieres algo tan selectivo como sea posible, y tan seguro como sea posible”, dijo ella.
Una nueva tecnología podría ayudarle a los doctores a predecir cuándo los pacientes están en riesgo de complicaciones serias.
Anne Trafton, MIT News Office. Original (en inglés).
Hace más de 60 años, los científicos descubrieron la causa subyacente de la anemia falciforme: La gente con la enfermedad producía células rojas con forma de hoz o media luna que obstruyen las capilaridades en lugar de fluir suavemente, como lo hacen las células rojas ordinarias con forma de disco. Esto puede causar un dolor severo, daño a otros órganos y un tiempo de vida significativamente más corto.
Los investigadores descubrieron después que la enfermedad resulta de una mutación en la proteína de la hemoglobina, y se dieron cuenta de que la forma de hoz – vista más comúnmente en las personas de climas tropicales – es en realidad una adaptación evolutiva que puede ayudar a proteger de la malaria.
Sin embargo, a pesar de todo lo que los científicos han aprendido sobre la enfermedad, que afecta a 13 millones de personas en el mundo, hay pocos tratamientos disponibles. “Aún no tenemos terapias lo suficientemente efectivas y no tenemos un buen conocimiento de como se manifiesta la enfermedad de manera diferente en diferentes personas”, dice Sangeeta Bhatia, Profesora de Ciencias de la Salud de John y Dorothy Wilson e Ingeniería Eléctrica y Ciencia Computacional en el MIT (Massachusetts Institute of Technology).
Bhatia, el postdoctorado del MIT David Wood, y colegas en la Universidad de Harvard, el Hospital General de Massachusetts (MGH) y el Hospital Brigham and Women han diseñado una simple prueba sanguínea para predecir si los pacientes de anemia falciforme tienen un alto riesgo de dolorosas complicaciones de la enfermedad. Para llevar a cabo la prueba, los investigadores miden que tan bien las muestras de sangre fluyen a través de un dispositivo microfluídico.
El dispositivo, descrito el primero de marzo en el diario “Science Translational Medicine”, podría ayudar a los doctores a monitorear a los pacientes de anemia falciforme y determinar el mejor curso de tratamiento, dice Bhatia. También podría ayudar a los investigadores a desarrollar nuevas drogas para la enfermedad.
Monitoreando el flujo sanguíneo
Los pacientes de anemia falciforme comúnmente sufren de anemia por que sus glóbulos rojos anormales no duran mucho en circulación. Sin embargo, la mayoría de los síntomas asociados con la enfermedad son causados por las crisis vaso-oclusivas que ocurren cuando los glóbulos con forma de hoz, que son más duros y más pegajosos que los glóbulos rojos normales, obstruyen los vasos sanguíneos y bloquean el flujo sanguíneo, esto puede causar isquemia (sufrimiento celular que puede incluso llegar a causar la muerte de células y tejidos conocida como necrosis, ya que las células no reciben el suficiente oxígeno ni nutrientes). La frecuencia y severidad de estas crisis varía ampliamente entre pacientes, y no hay manera de predecir cuando ocurrirán.
“Cuando un paciente tiene un colesterol alto, puedes monitorear su riesgo de enfermedades cardíacas y la respuesta a la terapia con una prueba sanguínea. Con la anemia falciforme, a pesar de que los pacientes tienen los mismos cambios genéticos subyacentes, algunos sufren tremendamente mientras que otros no – y todavía no tenemos una prueba que pueda guiar a los médicos en tomar decisiones terapéuticas”, dijo Bhatia.
En el 2007, Bhatia y L. Mahadevan, un profesor de Harvard de matemáticas aplicadas que estudia fenómenos naturales y biológicos, comenzaron a trabajar juntos para entender como las células con forma de hoz se mueven a través de las capilaridades. En el estudio actual, los investigadores recrearon las condiciones que pueden crear una crisis vaso-oclusiva: Dirigieron la sangre a través de un microcanal y redujeron su concentración de oxígeno, lo que provoca que los glóbulos con forma de hoz se atasquen y bloqueen el flujo sanguíneo.
Para cada muestra de sangre, midieron que tan rápidamente dejaría de fluir después de ser deoxigenada. John Higgins de MGH y la Escuela Médica de Harvard, un autor de la revista académica, comparó las muestras de sangre tomadas de glóbulos con forma de hoz de pacientes que habían o no habían hecho un viaje de emergencia al hospital o que recibieron transfusiones sanguíneas en los 12 meses anteriores, y encontró que la sangre de los pacientes con una forma menos severa de la enfermedad no se alentaron tan rápidamente como aquellas de los pacientes más severamente afectados.
Ninguna otra medida existente de propiedades sanguíneas – incluyendo concentración de glóbulos rojos, fracción de hemoglobina alterada o conteo de glóbulos blancos – puede hacer este tipo de predicción, dice Bhatia. El descubrimiento remarca la importancia de mirar la vaso-oclusión como el resultado de la interacción de muchos factores, más que una simple medida molecular, dijo ella.
Para mostrar que este dispositivo podría ser útil para el desarrollo de drogas, los investigadores también probaron una droga potencial para la anemia falciforme llamada 5-hidroximetilfurfural (HMF), que mejora la habilidad de la hemoglobina de unirse al oxígeno. Agregando la droga a la sangre, encontraron que mejoró dramáticamente cómo fluía a través del dispositivo.
Franklin Bunn, director de investigación hematológica en el hospital Brigham and Women, quien no fue parte de este estudio, dice que el dispositivo podría resultar muy útil para el desarrollo de drogas. “Provee una manera objetiva de evaluar las nuevas drogas que espero que continúen siendo desarrolladas para inhibir la deformación de glóbulos rojo”, dijo Bunn.
Los investigadores han aplicado por una patente en la tecnología y ahora están trabajando en desarrollarla como una herramienta de diagnóstico e investigación.
Investigadores del MIT ( Massachusetts Institute of Technolagy – Instituto Tecnológico de Massachusetts) desarrollan un nuevo acercamiento para producir microchips tridimensionales.
Jennifer Chu, MIT News Office. Original (en inglés).
Sistemas microelectromecánicos, or MEMS (Microelectromechanical systems), son pequeños dispositivos con un enorme potencial. Típicamente hechos de componentes de menos de 100 micrones en tamaño – el diámetro de un cabello humano – han sido usados como sensores biológicos, acelerómetros, giroscopios y actuadores.
En su mayoría, los dispositivos MEMS existentes son bidimensionales, con elementos funcionales hechos sobre la superficie del chip. Se pensaba que operar en tres dimensiones – por ejemplo, para detectar aceleración – requeriría complejos sistemas de manufactura y la costosa fusión de múltiples dispositivos en orientaciones precisas.
Ahora investigadores del MIT han llegado con un nuevo acercamiento al diseño de los MEMS que permite a los ingenieros desarrollar configuraciones tridimensionales, usando procesos existentes de fabricación; con este acercamiento, los investigadores construyeron un dispositivo MEMS que permite sensores tridimensionales en un solo chip. El dispositivo de silicón, no mucho más grande que un centavo estadounidense (un centavo estadounidense tiene un díámetro de 19.05 mm x 1.55 mm), contiene elementos microscópicos con un tamaño cercano al de los glóbulos rojos de la sangre que pueden ser diseñados para alcanzar alturas de cientos de micrones sobre la superficie del chip.
Fabio Fachin, un Postdoctorado en el Departamento de Aeronáutica y Astronáutica, dice que el dispositivo podría ser equipado con sensores, puestos sobre y bajo los minúsculos puentes del chip, para detectar fenómenos tridimensionales como aceleración. Acelerómetros tan compactos podrían ser útiles en diversas aplicaciones, incluyendo navegación espacial autónoma, donde una resolución extremadamente precisa de campos de aceleración tridimensionales es la clave.
“Uno de los factores principales que impulsan la industria actual de MEMS es el tratar de hacer dispositivos completamente tridimensionales en un solo chip, lo cual no solo permitiría una real sensación y actuación tridimensional, sino también significaría beneficios en el costo”, dijo Fachin. “Un acelerómetro MEMS podría darte [mediciones de] aceleración muy precisas con una huella muy pequeña, lo cual es crítico en el espacio”.
Fachin colaboró con Brian Wardle, un profesor asociado de aeronáutica y astronáutica en el MIT, y Stefan Nickles, un ingeniero de diseño en MEMSIC y Andover, Mass., compañía que desarrolla tecnología de sensores inalámbricos. El equipo mostró lo principios detrás de su acercamiento tridimensional en una revista académica aceptada para publicación en el Diario de Sistemas Microelectromecánicos.
Moviéndose a lo tridimensional
Mientras que la mayoría de los dispositivos MEMS son bidimensionales, ha habido esfuerzos para mover el campo a la tercera dimensión, particularmente para dispositivos hechos de polímeros. Científicos han utilizado litografía para fabricar intricadas estructuras tridimensionales de polímeros, que han sido usadas como pequeños engranes, dientes y micro-turbinas. Sin embargo, dice Fachin, los polímeros no cuentan con la rigidez y fuerza requerida para algunas aplicaciones, y pueden deformarse a altas temperaturas – características que son menos que ideales en aplicaciones como actuadores y absorbedores de choque.
En contraste, materiales como el silicio son relativamente durables y resistentes a la temperatura. Pero, dice Fachin, fabricar dispositivos tridimensionales en silicio es difícil. Ingenieros de MEMS usan una técnica común llamada grabado iónico reactivo profundo para hacer parcialmente estructuras tridimensionales, en las que elementos bidimensionales son grabados en una oblea. Sin embargo, la técnica no permite configuraciones tridimensionales completas, donde las estructuras se elevan más allá de la superficie del chip.
Micro-pilar de Silicio fabricado con el proceso Bosch
Para hacer dichos dispositivos, los ingenieros fabrican pequeños puentes bidimensionales, o voladizos, en la superficie de un chip. Después de que el chip es producido, aplican una pequeña cantidad de fuerza para arquear el puente en una configuración tridimensional. Este último paso, dice Fachin, requiere de gran precisión.
Estrés interno
En vez de esto, el equipo del MIT encontró una forma de crear elementos tridimensionales MEMS sin este último empujón. El grupo basó su aproximación en el estrés residual: En cualquier estructura de puente, no importa su tamaño, existe estrés que queda en un material aún después de que la fuerza original necesaria para producirlo – como el calor o la fuerza mecánica de un proceso de fabricación – ha desaparecido. Dicho estrés puede ser lo suficientemente fuerte para deformar un material, dependiendo de sus dimensiones.
Fachin y sus colegas estudiaron trabajos previos en configuraciones de microhaces y desarrollaron ecuaciones para representar la relación entre la flexibilidad, geometría y el estrés residual de un filme delgado de material. Entonces el grupo conectó la altura deseada de su puente en la ecuación, y obtuvo la cantidad de estrés residual requerida para abrochar o doblar la estructura en la forma deseada. Fachin dice que otros investigadores pueden usar las ecuaciones del grupo como una herramienta analítica para diseñar otros dispositivos tridimensionales usando procesos existentes de fabricación.
“Esto ofrece una forma muy económica para estructuras tridimensionales”, dijo Y.K. Yoon, un profesor asociado de ingeniería eléctrica y computacional en la Universidad de Florida que no tomó parte en la investigación. “Debido a que el proceso está basado en un sustrato de silicio, y es compatible con los procesos estándares de “complementary metal oxide semiconductor” (CMOS – semiconductor de óxido metálico complementario), también ofrecerá un camino a procesos inteligentes CMOS-MEMS, con buena manufacturabilidad”.
El grupo usó su herramienta analítica para diseñar pequeños dispositivos tridimensionales fuera de estructuras de silicio compuestas, con cada chip conteniendo microhaces altamente curvados o abrochados. Los sensores de Fachin, colocados encima de cada puente y en la superficie del chip, pueden triangular para medir la aceleración.
“Para otras aplicaciones donde quieras llegar a tamaños mucho más grandes, podrías elegir un material que tiene un estrés residual más grande, y eso podría causar que el haz se abroche más,” dijo Fachin. “La flexibilidad de la herramienta es importante”.
Un modelo de circulación actualizado revela que el Océano Antártico tiene una poderosa influencia en el cambio climático.
Jennifer Chu, MIT News Office. Original (en inglés).
Los océanos del mundo actúan como una cinta transportadora masiva, circulando calor, agua y carbono alrededor del planeta. Este sistema global juega un papel principal en el cambio climático, almacenando y liberando calor a través del mundo. Para estudiar como afectan estos sistemas el cambio climático, científicos se han enfocado principalmente en el Atlántico norte, una cuenca enorme donde el agua se hunde, enterrando carbón y calor en las profundidades interiores del Océano.
Pero lo que baja debe subir, y ha sido un misterio dónde y cómo, circulan las aguas profundas de vuelta a la superficie. Llenar esta pieza faltante de la circulación, y desarrollar teorías y modelos que la capturen, podría ayudarle a los investigadores a entender y predecir el papel del océano en el clima y el cambio climático.
Recientemente, científicos encontraron evidencia de que la pieza faltante podría encontrarse en el Océano Antártico – la vasta cinta de agua que rodea la Antártica. El Océano Antártico, de acuerdo a observaciones y modelos, es un sitio donde fuertes vientos que soplan junto con la Corriente Circumpolar Antártica dragan aguas desde las profundidades.
“Hay mucho carbono y calor en el océano interior”, dijo John Marshall, el Profesor de Oceanografía del Cecil e Ida Green en el MIT. “El Océano Antártico es la ventana por la cual el interior del océano se conecta a la atmósfera encima”.
Marshall y Kevin Speer, un profesor de oceanografía física en la Universidad Estatal de Florida, han publicado una revista académica en “Nature Geoscience” en la que revisan trabajo pasado, examinan la influencia del Océano Antártico en el clima, y dibujan un nuevo esquema para la circulación del océano.
Una banda transportadora revisada
Por décadas, un modelo de “banda transportadora” (circulación termohalina o CTH), desarrollado por el paleoclimatólogo Wallace Broecker, ha servido como un simple dibujo de la circulación del océano. El diagrama muestra agua templada moviéndose hacia el norte, sumergiéndose profundamente en el Atlántico Norte; entonces dirigiéndose al sur como agua fría hacia la antártica; entonces de vuelta al norte, donde el agua se eleva y es calentada por el Pacífico Norte.
Sin embargo, la evidencia ha mostrado que las aguas se elevan a la superficie no tanto en el Pacífico Norte sino en el Océano Antártico – una distinción que Marshall y Speer ilustran en su diagrama actualizado.
Océano Antártico. Imagen: John Marshall y Kevin Speer
Marshall dice que los vientos y remolinos a través del Océano Antártico draga aguas profundas – y cualquier carbón enterrado – a la superficie alrededor de la Antártica. Él y Speer escriben que el diagrama actualizado “trae el Océano Antártico al frente” del sistema de circulación global, remarcando su papel como un poderoso mediador climático.
De hecho, Marshall y Speer revisan evidencia de que el Océano Antártico podría haber jugado parte en el deshielo del planeta durante la última edad de hielo. Mientras que aún no está claro que causó que la tierra se calentara inicialmente, este calentamiento podría haber llevado patrones de viento superficial hacia los polos, sacando agua templada y carbón – que habría sido lanzado hacia la atmósfera, calentando el clima aún más.
Vientos cambiantes
En un mundo en enfriamiento, parece que los vientos se acercan ligeramente al ecuador, y son sacudidos por los continentes. En un mundo en calentamiento, lo vientos se acercan hacia los polos; en el Océano Antártico, los vientos, sin ningún impedimento, sacan aguas profundas. Los investigadores notan que dos tendencias atmosféricas provocadas por los hombres – agotamiento de ozono y gases de efecto invernadero de combustibles fósiles – tienen un largo efecto en los vientos sobre el Océano Antártico: mientras que el agujero en la capa de ozono se recupera, los gases de efecto invernadero aumentan y el planeta se calienta, los vientos sobre el Océano Antártico es muy probable que cambien, afectando el delicado balance en juego. En el futuro, si el Océano Antártico experimente vientos más fuertes desplazados ligeramente al sur de su posición actual, las capas de hielo de la Antártica son más vulnerables al derretimiento – un fenómeno que también pudo haber contribuido a terminar la edad de hielo.
“Hay enormes reservas de carbono en el interior del océano”, dijo Marshall. “Si el clima cambia y vuelve más fácil que el carbono llegue a la atmósfera, entonces habrá un efecto de calentamiento adicional”.
Jorge Sarmiento, un profesor de ciencias atmosféricas y oceánicas en la Universidad de Princeton, dice que el Océano Antártico ha sido un área difícil de estudiar. Para entender completamente la dinámica del Océano Antártico se requieren modelos con alta resolución – un desafío significativo, dado el tamaño del océano.
“Por qué es tan difícil observar el Océano Antártico, aún estamos en el proceso de aprender cosas”, dijo Sarmiento, quien no estuvo involucrado en esta investigación. “Así que pienso que es una buena representación de nuestro entendimiento actual, basado en modelos y observaciones, y será la piedra angular para desarrollos futuros en el campo”.
Marshall y Speer trabajan ahora en un equipo multi-institucional liderado por el colaborador del MIT, la Institución Oceanográfica Woods Hole, para medir cómo las aguas se elevan en el Océano Antártico. Los investigadores están estudiando el flujo provocado por remolinos en la Corriente Circumpolar Antártica, y han desplegado rastreadores y boyas profundas para medir sus efectos; temperatura, salinidad y contenido de oxígeno en el agua también ayudarán a decir cómo se comportan los remolinos, y que tan rápido o lento se eleva el agua cálida a la superficie.
“Cualquier perturbación que se haga a la atmósfera, ya sea debido a ciclos glaciales o al forzado de ozono o gases de efecto invernadero, puede cambiar el balance sobre el Océano Antártico”, dijo Marshall. “Tenemos que entender como funciona el Océano Antártico en el sistema climático y tomar esto en consideración”.
Un nuevo método de interferencia de Ácido Ribonucleico (ARN, o RNA por sus siglas en inglés de RiboNucleic Acid) muestra promesa para tratar el cáncer, y otras enfermedades.
Anne Trafton, MIT News Office. Original (en inglés).
Durante la década pasada, científicos han estado siguiendo tratamientos de cáncer basados en interferencia de ARN – un fenómeto que ofrece una manera de apagar los genes con mal funcionamiento con pequeños trozos de ARN. Sin embargo, queda un enorme desafío: encontrar una manera de entregar eficientemente el ARN.
La mayoría del tiempo, ARN pequeño de interferencia (siRNA por sus siglas en inglés de small interfering RNA) – el tipo usado para interferencia ARN – es disuelto rápidamente dentro del cuerpo por enzimas que defienden contra infecciones por virus ARN.
“Ha sido una verdadera lucha el tratar de diseñar un sistema de entrega que nos permita administrar siRNA, especialmente si quieres apuntarle a partes específicas del cuerpo”, dijo Paula Hammond, Profesora de Ingeniería del David H. Koch en el MIT.
Hammond y sus colegas han llegado con un novedoso vehículo de entrega en el que el ARN es empacado dentro de microesferas tan densas que pueden resistir la degradación hasta alcanzar sus destinos. El nuevo sistema, descrito el 26 de febrero en el diario “Nature Materials”, derriba la expresión de genes específicos tan efectivamente como los métodos existentes de entrega, pero con una dosis mucho menor de partículas.
Dichas partículas podrían ofrecer una nueva manera de tratar no solo el cáncer, sino también cualquier otra enfermedad crónica causada por un “gen que no se comporta”, dijo Hammond, quien también es miembro del Instituto David H. Koch para Investigación de Cáncer Integrativa. “Interferencia de ARN tiene una enorme promesa para un gran número de enfermedades, una de las cuales es el cáncer, pero también enfermedades neurológicas y enfermedades inmunes”, dijo.
El autor líder de la revista académica es Jong Bum Lee, un antiguo postdoctorado en el laboratorio de Hammond. El postdoctorado Jinkee Hong, el doctor Daniel Bonner y el doctor Zhiyong Poon también son autores de la revista académica.
Interrupción genética
La interferencia de ARN es un proceso que ocurre naturalmente, descubierto en 1998, que permite a células ajustar precisamente su expresión genética. La información genética normalmente se carga del ADN en el núcleo a los ribosomas, estructuras celulares donde se forman las proteínas. siRNA se une al mensajero ARN que carga esta información genética, destruyendo instrucciones antes de que alcances al ribosoma.
Los científicos trabajan en muchas maneras para replicar artificialmente este proceso para apuntar a genes específicos, incluyendo empacar siRNA en nanopartículas hechas de lípidos (grasas) o materiales inorgánicos como el oro. Aunque muchas de éstas han mostrado algo de resultados, una desventaja es que es difícil cargar grandes cantidades de siRNA en estos cargueros, por que los cortos filamentos no se empacan ajustadamente.
Para superar esto, el equipo de Hammond decidió empacar el ARN como un largo filamento que se doblaría en una pequeña y compacta esfera. Los investigadores usaron un método para sintetizar ARN conocido como transcripción de círculo rotatorio para producir filamentos extremadamente largos de ARN hechos de una secuencia repetidora de 21 nucleoides. Esos segmentos están separados por una extensión más corta que es reconocida por la enzima Dicer, que corta el ARN cuando encuentra esa secuencia.
Conforme el filamento de ARN es sintetizado, se dobla en hojas que entonces se auto-ensamblan en una esfera muy densa similar a esponja. Hasta medio millón de copias de la misma secuencia de ARN pueden ser empacadas en una esfera con un diámetro de solo dos micrones. Una vez que la esferas se forman, los investigadores las empacan en una capa de polímero cargado positivamente, que induce a las esperas a empacarse aún más apretadas (hasta un diámetro de 200 nanómetros) y también las ayuda a entrar en las células.
Después de que las esferas entran a una célula, la enzima Dicer corta el ARN en lugares específicos, liberando las secuencias siRNA de 21 nucleótidos.
Peixuan Guo, director del Centro de Desarrollo de Nanomedicina NIH en la Universidad de Kentucky, dijo que el aspecto más emocionante del trabajo es el desarrollo de un método de auto-ensamblado para partículas de ARN. Guo, quien no fue parte del equipo de investigación, agrega que las partículas podrían ser más efectivas en entrar en las células si fueran encogidas a escalas aún más pequeñas, cercanas a los 50 nanómetros.
Apuntando a tumores
En la revista académica de “Nature Materials”, los investigadores probaron sus esferas programándolas para liberar secuencias de ARN que apagaran un gen que provoca que las células de tumores brillen en ratones. Encontraron que podían alcanzar el mismo nivel de derribo de sistemas de entrega de nanopartículas convencionales, pero utilizando hasta mil veces menos partículas.
Las microesponjas se acumulan en los sitios de tumores a través de un fenómeno comúnmente utilizado para entregar nanopartículas: Los vasos sanguíneos que rodean tumores tienen “filtraciones,” lo que significa que tienen pequeños poros a través de los cuales muy pequeñas partículas pueden colarse.
En estudios futuros, los investigadores planean diseñar microesferas recubiertas con polímeros que específicamente apunten a células de tumores u otras células de enfermedades. También trabajan en esferas que carguen ADN, para un potencial uso en terapia genética.
Una simulación por computadora identifica el origen de electrones de alta velocidad que causan auroras en el espacio. La cola magnética de la tierra es mucho más larga de lo que se creía.
David L. Chandler, MIT News Office. Original (en inglés).
Un misterioso fenómeno detectado por sondas espaciales finalmente ha sido explicado, gracias a una masiva simulación por computadora que pudo alinearse precisamente con detalles de las observaciones de las sondas espaciales. El hallazgo no solo resuelve un enigma astrofísico, sino que también podría llevar a una mejor habilidad para predecir corrientes de electrones de alta energía en el espacio que podrían dañar satélites.
Jan Egedal, un profesor asociado de física en el MIT y un investigador en el Centro de Ciencia y Fusión de Plasma, trabajando con el estudiante graduado del MIT Ari Le y con William Daughton del Laboratorio Nacional Los Álamos (LANL – Los Alamos National Laboratory), reportan esta solución al acertijo espacial en una revista académica publicada el 26 de Febrero en el diario “Nature Physics”.
Egedal propuso inicialmente una teoría para explicar esta aceleración de electrones a gran escala en la cola magnética de la Tierra, un vasto e intenso campo magnético barrido hacia afuera por el viento solar – pero hasta que los nuevos datos fueron obtenidos de la simulación por computadora, “solía ser que la gente decía que ésta era una idea loca,” dijo Egedal. Gracias a los nuevos datos, “ya no me dicen eso”, dice.
La simulación muestra que una región activa de la cola magnética de la tierra, donde eventos de “reconexión” se llevan a cabo en el campo magnético, es apenas 1,000 veces más grande de lo que se había pensado. Esto significa que el volumen del espacio energizado por estos eventos magnéticos es suficiente para explicar los grandes números de electrones de alta velocidad detectados por varias misiones de naves espaciales, incluyendo la misión Cluster.
Resolver el problema requirió una impresionante cantidad de poder de computación de una de las supercomputadoras más avanzadas del mundo, en el Instituto Nacional para Ciencia Computacional en el Laboratorio Nacional Oak Ridge en Tennessee. La computadora, llamada Kraken, tiene 112,000 procesadores trabajando en paralelo y consume tanta electricidad como una población pequeña. El estudio utilizó 25,000 de estos procesadores por 11 días para seguir el movimiento de 180 mil millones de partículas simuladas en el espacio sobre un evento de reconexión magnética, dijo Egedal. El tiempo de procesamiento se acumuló gradualmente, metido durante los tiempos inactivos entre otras tareas. La simulación fue realizada usando un código de plasma físico desarrollado en LANL que rigurosamente analiza la evolución de la reconexión magnética.
Egedal explica que conforme el viento solar estira las líneas del campo magnético de la tierra, el campo guarda energía como una liga que está siendo estirada. Cuando las líneas del campo paralelo de pronto se reconectan, liberan esa energía toda a la vez – como soltar la liga. Esta liberación de energía es lo que empuja a los electrones con gran energía (decenas de miles de voltios) de vuelta hacia la tierra, donde impactan la atmósfera alta. Se piensa que el impacto, directa o indirectamente, genera el plasma que brilla en la atmósfera alta llamado aurora, produciendo espectaculares muestras en el cielo nocturno.
Lo que tenía desconcertados a los físicos es el número de electrones energéticos generados en dichos eventos. De acuerdo a la teoría, debería ser imposible sustentar un campo eléctrico a lo largo de la dirección de las líneas del campo magnético, por que el plasma (gas cargado eléctricamente) en la cola magnética debería ser un conductor casi perfecto. Pero dicho campo es solo lo que es necesario para acelerar los electrones. Y, de acuerdo a la nueva simulación, el volumen del espacio donde dichos campos pueden formarse puede, de hecho, ser al menos 1,000 veces más largo que lo que los teóricos han pensado posible – y por lo tanto lo suficientemente largo para explicar los electrones observados.
“La gente ha estado pensando que esta región es pequeña”, Egedal dijo. Pero ahora, “al analizar los datos de las naves espaciales y hacer la simulación, hemos mostrado que puede ser muy larga, y puede acelerar muchos electrones”. Como resultado, “por vez primera, podemos reproducir las características” observadas por la nave espacial Cluster.
Esto podría ser importante por que, entre otras cosas, “estos electrones podrían destruir naves espaciales”, dijo Egedal, que es por lo que el ejército y la NASA “querrán entender mejor esto”.
Aunque este análisis fue específico al fenómeno en la cola magnética de la tierra, Egedal dijo que fenómenos similares podrían estarse llevando a cabo en regiones mucho más grandes de plasma magnetizado en el espacio – como en eyecciones masivas que salen de la corona solar, que ocupan regiones 10,000 veces más grandes, o incluso regiones que rodean a pulsares u otros objetos de alta energía en lo profundo del espacio, que aún son mucho más grandes. En el futuro, espera poder llevar a cabo simulaciones que aplicarían a las eyecciones de masa coronal del Sol. “Pensamos que podemos escalar la simulación” hasta en 100 veces dice.
Michael Brown, un profesor de física del colegio Swarthmore quien no estuvo involucrado en esta investigación, dice que Egedal “esta emergiendo como un líder en aspectos experimentales y observacionales de reconexión magnética”, y su co-autor Daughton “es el líder reconocido en lo último en simulaciones de plasma”. El nuevo resultado “es muy significativo, y pienso que es sorprendente para el resto de la comunidad. Pienso que esta imagen ganará más y más aceptación, y tendremos que ir más allá” de la imagen aceptada actualmente de los plasmas, dijo.
El trabajo fue apoyado por subsidios de la NASA y la Fundación Nacional de Ciencia.