Derretimiento sin precedentes en la capa de hielo de Groenlandia

Hielo
Imagen: Joe Mastroianni

Durante varios días de este mes, la capa de hielo de la superficie de Groenlandia se derritió en un área mayor que en cualquier momento en más de 30 años de observaciones satelitales. Casi toda la cubierta de hielo de Groenlandia, desde sus delgados, bajos bordes costeros hasta su centro de dos kilómetros de espesor, experimentó cierto grado de derretimiento en su superficie, de acuerdo con las mediciones de tres satélites independientes analizadas por la NASA y científicos de universidad.

En promedio en el verano, cerca de la mitad de la superficie de la capa de hielo de Groenlandia se derrite de forma natural. En altas elevaciones, la mayor parte de esa agua de deshielo rápido vuelve a congelarse en su lugar. Cerca de la costa, parte del agua de deshielo es retenida por la capa de hielo y el resto se pierde en el océano. Pero este año la extensión del hielo derritiendose en la superficie o cerca de ella ha aumentado notablemente. De acuerdo con los datos satelitales, se estima que el 97% de la superficie de la capa de hielo se descongeló en algún momento a mediados de julio.

Los investigadores aún no han determinado si este evento de extenso deshielo afectará el volumen global de pérdida de hielo este verano y contribuirá a la elevación del nivel del mar.

“La capa de hielo de Groenlandia es una extensa zona con una variada historia de cambio. Este evento, junto con otros fenómenos naturales pero poco frecuentes, como el gran evento de desprendimiento de hielo la semana pasada en el Glaciar Petermann, son parte de una historia compleja”, dijo Tom Wagner , director del programa de la criosfera de la NASA en Washington. “Las observaciones por satélite están ayudando a entender cómo eventos como estos pueden relacionarse unos con otros, así como con el sistema climático más amplio.”

Son Nghiem, del Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California, estaba analizando datos de radar del satélite Oceansat-2 de la Indian Space Research Organisation (ISRO) la semana pasada cuando se dio cuenta de que la mayor parte de Groenlandia pareció haber sufrido derretimiento de la superficie el 12 de julio. Nghiem dijo: “Esto fue tan extraordinario que al principio cuestioné el resultado: ¿fue esto real o se debió a un error de datos?”

Nghiem consultó con Dorothy Hall en el Centro Goddard de Vuelo Espacial de la NASA en Greenbelt, Maryland. Hall estudia la temperatura de la superficie de Groenlandia usando el Espectroradiometro de Imágenes de resolución Moderada (MODIS) a bordo de los satélites Terra y Aqua de la NASA. Ella confirmó que MODIS mostró temperaturas inusualmente altas y que el deshielo era abundante sobre la superficie de la capa de hielo.

Thomas Mote, un climatólogo de la Universidad de Georgia, Athens, Georgia, y Marco Tedesco, de la Universidad de la Ciudad de Nueva York también confirmó el deshielo visto por Oceansat-2 y MODIS con los datos de satélite de microondas pasivas del Special Sensor Microwave Imager/Sounder en un satélite meteorológico de la Fuerza Aérea de los Estados Unidos.

El deshielo se extendió rápidamente. Mapas del derretimiento derivados de los tres satélites mostraron que el 8 de julio, alrededor del 40% de la superficie de la capa de hielo se había derretido. Para el 12 de julio, el 97% se había derretido.

Groenlandia
Imagen: Nicolo E. DiGirolamo, SSAI/NASA GSFC, y Jesse Allen, NASA Earth Observatory

Este evento de derretimiento extremo coincidió con un frente inusualmente fuerte de aire caliente, o una cúpula de calor, sobre Groenlandia. El frente era uno de una serie que ha dominado el clima de Groenlandia desde finales de mayo. “Cada frente sucesivo ha sido más fuerte que el anterior”, dijo Mote. Esta última cúpula de calor comenzó a moverse sobre Groenlandia el 8 de julio, y luego se estacionó sobre la capa de hielo unos tres días después. Por el 16 de julio, había comenzado a disiparse.

Incluso el área alrededor de la Estación Summit en el centro de Groenlandia, que a 2 kilómetros sobre el nivel del mar está cerca del punto más alto de la capa de hielo, mostró signos de deshielo. Tal derretimiento pronunciado en Summit y en toda la capa de hielo no se ha producido desde 1889, de acuerdo con los núcleos de hielo analizados por Kaitlin Keegan en el Dartmouth College en Hanover, New Hampshire. Una estación meteorológica de la Administración Nacional Oceánica y Atmosférica (NOAA) en Summit confirmó que las temperaturas del aire rondaron por encima o a un grado del congelamiento por varias horas el 11-12 de julio.

“Los núcleos de hielo de Summit muestran que los eventos de deshielo de este tipo ocurren aproximadamente una vez cada 150 años en promedio. Con el último acontecimiento en el año 1889, este evento esta justo a tiempo”, dice Lora Koenig, un glaciólogo del Goddard y miembro del equipo de investigación que analiza los datos obtenidos por satélite. “Pero si seguimos observando acontecimientos de derretimiento de este tipo en los próximos años, será preocupante”.

El descubrimiento de Nghiem mientras analizaba datos del Oceansat-2 era el tipo de beneficio que la NASA y la ISRO tenían la esperanza de estimular cuando firmaron un acuerdo en marzo de 2012 para cooperar en Oceansat-2 con el intercambio de datos.

Fuente
http://www.nasa.gov/ (en inglés)

Un sistema solar lejano

Kepler-30c orbitando
Kepler-30c orbitando

Investigadores miden la orientación de un sistema multiplanetario y la encuentran muy similar a la de nuestro propio sistema solar.

Jennifer Chu, MIT News Office. Original (en inglés)

Nuestro sistema solar exhibe una configuración notablemente ordenada: Los ocho planetas orbitan el sol como corredores en una pista, circulando en sus respectivos carriles y siempre manteniendo el mismo plano. En contraste, la mayoría de los exoplanetas descubiertos en años recientes – particularmente los gigantes conocidos como ‘Jupiters calientes’ – habitan orbitas más excéntricas.

Ahora investigadores en el MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts), la Universidad de California en Santa Cruz y otras instituciones han detectado el primer sistema exoplanetario, a 10,000 años luz de distancia, con órbitas regularmente alineadas similares a aquellas en nuestro sistema solar. En el centro de este sistema lejano se encuentra Kepler-30, una estrella tan brillante y masiva como el sol. Después de analizar datos del telescopio espacial Kepler de la NASA, los científicos del MIT y sus colegas descubrieron que la estrella – de forma similar al Sol – rota alrededor de un eje vertical y sus tres planetas tienen órbitas que están todas en el mismo plano.

“En nuestro sistema solar, la trayectoria de los planetas es paralela a la rotación del sol, lo que muestra que probablemente se formaron de un disco rotando,” dice Roberto Sanchis-Ojeda, un estudiante graduado de física en el MIT quien lideró el esfuerzo investigativo. “En este sistema, mostramos que la misma cosa sucede.”

Sus hallazgos, publicados hoy en el diario Nature, podría ayudar a explicar los origenes de ciertos sistemas muy extensos mientras que arroja luz en nuestro propio vecindario planetario.

“Esto me está diciendo que el sistema solar no es algún tipo de casualidad,” dice Josh Winn, un profesor asociado de física en el MIT y co-autor del artículo. “El hecho de que la rotación del sol está alineada con las órbitas de los planetas, probablemente no es algún tipo de coincidencia extraña.”

Poniendo en claro las inclinaciones orbitales

Representación artística de un Jupiter caliente
Representación artística de un Jupiter caliente. Imagen: NASA

Winn dice que el descubrimiento del equipo puede respaldar una teoría reciente sobre como se formaron los Jupiters calientes. Estos cuerpos gigantes son nombrados por su proximidad extremadamente cercana a sus estrellas blancas calientes, completando una órbita en solo horas o días. Las órbitas de los Jupiter calientes son típicamente descentradas, y los científicos han pensado que dichas desalineaciones podrían ser una pista a sus orígenes: Sus órbitas podrían haber sido desviadas en el periodo muy temprano y volátil de la formación de un sistema planetario, cuando varios planetas gigantes pudieron haberse acercado tanto como para dispersar algunos planetas fuera del sistema mientras que acercaron más a sus estrellas a otros.

Recientemente, los científicos han identificado un número de sistemas con Jupiters calientes, todos los cuales tienen órbitas inclinadas. Pero para realmente probar esta teoría de la “dispersión planetaria”, Winn dice que los investigadores tienen que identificar un sistema sin Jupiter caliente, uno con planetas circulando más lejos de su estrella. Si el sistema estuviera alineado como nuestro sistema solar, sin inclinación orbital, proveería evidencia de que solo los sistemas con Jupiter calientes están desalineados, formados como resultado de dispersión planetaria.

Encontrando mánchas solares en un sol lejano

Para poder resolver el misterio, Sanchis-Ojeda estudio datos del telescopio espacial Kepler, un instrumento que monitorea 150,000 estrellas por señales de planetas distantes. El lo enfocó en Kepler-30, un sistema sin Jupiter caliente con tres planetas, todos con órbitas mucho más largas que las de un Jupiter caliente típico. Para medir la alineación de la estrella, Sanchis-Ojeda rastreó sus manchas solares, manchas oscuras en la superficie de estrellas brillantes como el sol.

Representación artística del planeta Kepler-30c transitando una de las machas solares de la estrella.
Representación artística del planeta Kepler-30c transitando una de las machas solares de la estrella. Imagen: Cristina Sanchis Ojeda

“Estas pequeñas manchas negras marchan a través de la estrella conforme rota,” dice Winn. “Si pudiéramos hacer una imagen sería muy bueno, por que verías exactamente como está orientada la estrella con solo rastrear estos puntos.”

Pero estrellas como Kepler-30 están extremadamente lejos, así que capturar la imagen de ellas es casi imposible: La única manera de documentar dichas estrellas es al medir la pequeña cantidad de luz que ellas dan. Así que el equipo buscó maneras de rastrear manchas solares usando la luz de estas estrellas. Cada vez que un planeta transita – o cruza en frente de – dicha estrella, bloquea un poco de luz solar, lo que los astrónomos ven como una caída en la intensidad de la luz. Si un planeta cruza un punto oscuro, la cantidad de luz bloqueada se reduce, creando una variación en la caída de luz.

“Si obtienes una variación causada po una mancha solar, entonces la próxima vez que el planeta llega, el mismo punto se ha movido de ahí, y verías la variación no aquí sino allá,” dice Winn. “Así que el tiempo de estas variaciones es lo que usamos para determinar la alineación de una estrella.”

De las variaciones de datos, Sanchis-Ojeda concluyó que Kepler-30 rota en un eje perpendicular al plano orbital de su planeta más grande. Los investigadores determinaron entonces la alineación de las órbitas de los planetas estudiando los efectos gravitaciones de un planeta en el otro. Midiendo las variaciones temporales de los planetas conforme transitan la estrella, el equipo derivó sus configuraciones orbitales respectivas, y encontró que todos los tres planetas están alineados en el mismo plano. La estructura planetaria general, encontró Sanchis-Ojeda, se ve mucho como la de nuestro sistema solar.

James Lloyd, un profesor asistente de astronomía en la Universidad Cornell quien no estuvo involucrado en esta investigación, dice que estudiando las órbitas planetaria podría arrojar luz sobre como la vida evolucionó en el universo – ya que para tener un clima estable adecuado para la vida, un planeta necesita una órbita estable. “Para poder entender como la vida común es en el universo, necesitamos entender que tan comunes son los sistemas planetarios estables,” dice Lloyd. “Podríamos encontrar pistas en sistemas planetarios extrasolares para ayudar a entender los acertijos del sistema solar, y vice versa.”

Los hallazgos de este primer estudio de la alineación de un sistema sin Jupiter caliente sugieren que los sistemas de Jupiter calientes podrían realmente formarse por medio de dispersión planetaria. Para asegurarse, Winn dice que el y sus colegas planean medir las órbitas de otros sistemas solares lejanos.

“Hemos estado muy hambrientos por algo como esto, donde no es exactamente como el sistema solar, pero al menos más normal, donde los planetas y la estrella están alineados uno con otro,” dice Winn. “Es el primer caso donde puedes decir eso, además del sistema solar.”

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Analizando tweets para identificar psicópatas

Twitter
Twitter

Según un estudio llevado a cabo por la Universidad Florida Atlantic y el sitio de competencias de grandes datos, Kaggle, se puede revelar si una persona es narcisista, maquiavélica o psicópata mediante el análisis de su manera de escribir en las redes sociales.

“El FBI podría usar esto para marcar a los posibles malhechores, pero creo que es mucho más convincente que los psicólogos lo utilicen para comprender a grandes comunidades de personas”, dijo Chris Sumner de la Fundación de Privacidad en Línea, quien colaboró en el estudio.

Sumner comenta que para la comparación de rasgos de personalidad entre diferentes países podrían usarse los modelos algorítmicos desarrollados por su equipo, basándose en Twitter.

Este estudio se llevó a cabo después de que investigadores de Cornell hicieran una publicación sobre patrones encontrados en escritos de psicópatas clínicos, la cual llevó a que algunos se preguntaran si los medios de comunicación social podrían ayudar a exponer rasgos de asesinos psicópatas.

Así que para la investigación se reclutaron usuarios regulares de Twitter con la ayuda del actor/comediante británico Stephen Fry y el skater Tony Hawk, quienes twittearon sobre esto y enviaron a los usuarios a bigfiveme para que contestaran un test de personalidad que los evaluó para los aspectos de ‘apertura a experiencias’, ‘conciencia’, ‘extraversión’, ‘agradabilidad’, ‘neuroticismo’, y la triada oscura formada por ‘narcisismo’, ‘maquiavelismo’ y ‘psicoticismo’. Cerca de 3,000 usuarios accedieron a que sus tweets públicos fueran descargados para el estudio, y 41 usuarios alcanzaron una alta calificación en los rasgos desagradables, mientras que el resto quedó dentro de los “niveles normales” de esos aspectos.

Sin embargo, Sumner dice que “sólo porque alguien obtenga puntuaciones altas no quiere decir que sean de mente criminal”, y agregó que, si se intenta aplicar esto para intentar identificar a alguien que va a cometer un crimen, lo más seguro es que resulte en la captura de personas que realmente no van a cometerlo.

Más información
http://www.forbes.com/ (en inglés)

Un nuevo acercamiento a la desalinización de agua

Desalinización

Hojas de grafeno con poros controlados precisamente tienen potencial para purificar agua más eficientemente que los métodos existentes.

David L. Chandler, MIT News Office. Original (en inglés).

La disponibilidad del agua fresca esta disminuyendo en muchas partes del mundo, un problema que se espera que crezca con la población. Una fuente prometedora de agua potable es la cantidad virtualmente ilimitada de agua de mar en el mundo, pero hasta ahora la tecnología de desalinización ha sido muy cara para el uso extendido.

Ahora, investigadores del MIT han diseñado un nuevo acercamiento usando un tipo diferente de material de filtración: hojas de grafeno, una forma del elemento carbono de un átomo de grosor, el cual dicen que es mucho más eficiente y posiblemente menos caro que los sistemas existentes de desalinización.

Desalinización con grafeno
Desalinización con grafeno. Imagen: David Cohen-Tanugi

“No hay mucha gente trabajando en la desalinización desde un punto de vista de materiales,” dice Jeffrey Grossman, el profesor asociado de Ingeniería de Energía en el Departamento de Ciencia de Materiales e Ingeniería del MIT, quien es el autor principal de un artículo describiendo el nuevo proceso en el diario Nano Letters.

Grossman y el estudiante graduado David Cohen-Tanugi, quien es el autor líder del artículo, apuntaron a “controlar las propiedades del material hasta el nivel atómico,” produciendo una hoja de grafeno perforada con agujeros de un tamaño preciso. También añadieron otros elementos al material, causando que los bordes de esas minúsculas aperturas interactuen químicamente con las moléculas de agua – ya sea repeliéndolas o atrayéndolas.

“Estuvimos muy placenteramente sorprendidos por lo bien que el grafeno se desempeñó comparado a los sistemas existentes en las simulaciones por computadora,” dice Grossman.

Un método común de desalinización, llamado ósmosis inversa, usa membranas para filtrar la sal del agua. Pero estos sistemas requieren presión extremadamente alta – y por lo tanto, uso de energía – para forzar el agua a través de las delgadas membranas, las que son alrededor de mil veces más gruesas que el grafeno. El nuevo sistema de grafeno opera a una presión mucho más baja, y por lo tanto podría purificar el agua con un costo mucho más bajo, dicen los investigadores.

Mientras que la ósmosis reversa ha sido utilizada por décadas, “los mecanismos realmente básicos de separar la sal del agua no están bien entendidos, y son muy complejos,” dice Cohen-Tanugi, añadiendo que es muy difícil hacer experimentos a la escala de moléculas y iones individuales. Pero el nuevo sistema basado en grafeno, dice, trabaja “cientos de veces más rápido que las técnicas actuales, con la misma presión” – o, alternativamente, el sistema podría alcanzar las mismas tasas de los sistemas actuales, pero con presión más baja.

La clave para el nuevo proceso es el control preciso sobre el tamaño de los agujeros en la hoja de grafeno. “Hay un punto preciso, pero es muy pequeño,” dice Grossman – entre los poros lo suficientemente grandes para que pueda pasar la sal a través y lo suficientemente pequeños para que las moléculas de agua sean bloqueadas. El tamaño ideal es apenas por encima de un nanómetro, o una mil millonésima parte de un metro, dice. Si los agujeros son apenas ligeramente más pequeños – 0.7 nanómetros- el agua no circulará.

Otros grupos de investigación han trabajado para crear poros en el grafeno, dice Cohen-Tanugi, pero con tamaños diferentes y para diferentes propósitos – por ejemplo, haciendo agujeros mucho más grandes para filtrar moléculas como el ADN, o para separar diferentes tipos de gases. Los métodos usados para estos procesos no fueron lo suficientemente precisos para hacer los pequeños agujeros necesarios para la desalinización, dijo, pero técnicas más avanzadas – como el bombardeo de helio-ion para hacer agujeros precisos en el grafeno, grabados químicos y sistemas de auto-ensamblado – podrían ser adecuadas.

Por ahora, Grossman y Cohen-Tanugi han estado haciendo simulaciones de computadora de el proceso para determinar sus características óptimas. “Comenzaremos a trabajar en el prototipo este verano,” dice Grossman.

Debido a que el grafeno ha sido objeto de investigación en muchas aplicaciones diferentes, ha habido una gran cantidad de trabajo en encontrar maneras de hacerlo económico y en grandes cantidades. Y para la desalinización, debido a que el grafeno es un material tan fuerte – libra por libra, es el material más fuerte conocido – las membranas deberían de ser más durables que aquellas siendo actualmente usadas para la ósmosis inversa, dice Grossman.

Adicionalmente a esto, el material necesario para la desalinización no necesita ser tan puro como para usos electrónicos u ópticos, dice: “Unos pocos defectos no importan, mientras que no se abran” para que así la sal pueda pasar a través.

Joshua Schrier, un profesor asistente de química en el Colegio Haverford, dice, “Simulaciones previas han estudiado el flujo de agua a través de muy pequeños agujeros en el grafeno, y el diseño de poros que selectivamente permitan el paso de iones, pero – a pesar de la relevancia social y de ingeniería relevante a la desalinisación – nadie ha podido examinar las intersecciones de estos dos campos.” El trabajo por el equipo del MIT podría abrir un nuevo acercamiento a la desalinización, dice.

Schrier añade, “Manufacturar las estructuras porosas muy precisas que son encontradas en este artículo será difícil de hacer en gran escala con los métodos existentes.” Sin embargo, dice, “las predicciones son lo suficientemente exitantes que deberían de motivar a los ingenieros químicos a desarrollar análisis económicos más detallados de la desalinización del agua con estos tipos de materiales.”

El trabajo fue fundado por la Iniciativa de Energía del MIT y la Beca John S. Hennessy, y utilizó recursos computacionales del Centro Nacional de Computación Científica para la Investigación de Energia.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Mezcla de nutrientes mejora la memoria en pacientes con Alzheimer temprano

Sinapsis, una conexión entre células cerebrales.
Sinapsis, una conexión entre células cerebrales.
Imagen: Christine Daniloff

En pruebas clínicas, una mezcla desarrollada en el MIT parece ayudar a vencer la pérdida de conexiones entre las células del cerebro.

Anne Trafton, MIT News Office. Original (en inglés).

Una prueba clínica de un tratamiento para la enfermedad de Alzheimer desarrollado en el MIT ha encontrado que el cóctel de nutrientes puede mejorar la memoria en pacientes con Alzheimer temprano. Los resultados confirman y expanden los descubrimientos de una prueba anterior del suplemento nutricional, que está desarrollado para promover nuevas conexiones entre células cerebrales.

Los pacientes de Alzheimer gradualmente pierden esas conexiones, conocidas como sinapsis, llevando a la pérdida de memoria y otras deficiencias cognitivas. El suplemento, conocido como Souvenaid, parece estimular el crecimiento de nuevas sinapsis, dice Richard Wurtman, el distinguido profesor en el MIT quien inventó la mezcla de nutrientes.

“Quieres aumentar el número de sinapsis, no mediante alentar su degradación – aunque por supuesto también te encantaría hacer eso – sino incrementando la formación de sinapsis,” dice Wurtman.

Para hacer eso, a Wurtman se le ocurrió hacer una mezcla de tres compuestos dietarios naturales: colina, uridina y ácido docosahexaenoico (DHA) de la serie omega-3. La colina puede ser encontrado en una variedad de fuentes, incluyendo el pescado, huevos, lino y carne de animales que se alimentan de pasto. La uridina es producida por el hígado y el riñón, y está presente en algunas comidas como un componente del ácido ribonucleico (ARN).

Estos nutrientes son precursores de las moléculas lípidas que, junto con proteínas específicas, forman las membranas de las células cerebrales, lo que forma sinapsis. Para ser efectivo, los tres precursores deben de ser administrados juntos.

Resultados de la prueba clínica, conducidos en Europa, aparecen en la edición del 10 de julio del Diario de la Enfermedad de Alzheimer (Journal of Alzheimer’s Disease). Los nuevos hallazgos son alentadores por que muy pocas pruebas clínicas han producido mejoras consistentes en los pacientes de Alzheimer, dice Jeffrey Cummings, director del Centro Lou Ruvo para la Salud Cerebral de la Clínica de Cleveland.

“La pérdida de memoria es la característica central del Alzheimer, así que algo que mejora la memoria sería de gran interés,” dice Cummings, quien no fue parte del equipo investigador.

Los planes para el lanzamiento comercial del suplemento no están finalizados, de acuerdo a Nutricia, la compañía probando y comercializando Souvenaid, pero probablemente esté disponible en Europa primero. Nutricia es la división especializada en el cuidado de la salud de la compañía de alimentos Danone, conocida como Dannon en los Estados Unidos.

Formando conexiónes

Espinas Dendríticas
Espinas Dendríticas

A Wurtman se le ocurrió por primera vez la idea de enfocarse en la pérdida de sinapsis para combatir el Alzheimer hace alrededor de 10 años. En estudios animales, el mostró que este cóctel dietario aumentaba el número de espinas dendríticas, o pequeños afloramientos en las neuronas membranas, encontradas en las células cerebrales. Estas espinas son necesarias para formar nuevas sinapses entre neuronas.

Tras los exitosos estudios animales, Philip Schelten, director del Centro de Alzheimer en el Centro Médico Universitario UV en Amsterdam, llevó a cabo una prueba clínica en Europa involucrando a 225 pacientes con Alzheimer leve. Los pacientes bebieron Souvenaid o una bebida de control diariamente por tres meses.

Ese estudio, reportado por primera vez en el 2008, encontró que 40 por ciento de los pacientes que consumieron la bebida mejoraron en una prueba de memoria verbal, mientras que 24 por ciento de los pacientes que recibieron la bebida de control mejoraron su rendimiento.

El nuevo estudio, desarrollado en varios países Europeos y supervisado por Scheltes como investigador principal, siguió a 259 pacientes por seis meses. Los pacientes, ya sea que tomaran Souvenaid o un placebo, mejoraron el desempeño de su memoria verbal durante los primeros tres meses, pero los pacientes con placebo se deterioraron durante los siguientes tres meses, mientras que los pacientes con Souvenaid continuaron mejorando. Para esta prueba, los investigadores usaron pruebas de memoria más exhaustivas tomadas de la batería de pruebas neuropsicológicas, comúnmente usadas paras evaluar a los pacientes de Alzheimer en investigación clínica.

Los pacientes mostraron una alta taza de conformidad: Alrededor del 97 por ciento de los pacientes siguieron el régimen a lo largo del estudio, y ningún efecto secundario serio fue visto.

Ambas pruebas clínicas fueron patrocinadas por Nutricia. El MIT ha patentado la mezcla de nutrientes usados en el estudio, y Nutricia tiene la licencia exclusiva sobre la patente.

Patrones cerebrales

Tomografía por emisión de positrones
Tomografía por emisión de positrones

En el nuevo estudio, los investigadores usaron electroencefalografía (EEG – Electroencephalography) para medir como los patrones de actividad cerebral de los pacientes cambiaron a través del estudio. Encontraron que conforme las pruebas progresaban, los cerebros de los pacientes recibiendo suplementos comenzaron a cambiar de patrones típicos de demencia a patrones más normales. Debido a que los patrones en un EEG reflejan la actividad sináptica, esto sugiere que la función sináptica aumentó como resultado del tratamiendo, dicen los investigadores.

Los pacientes entrando en este estudio estaban el las etapas tempranas de la enfermedad de Alzheimer, obteniendo un promedio de 25 en una escala de demencia que va del 1 al 30, con el 30 siendo lo normal. Una prueba previa encontró que el cóctel suplemento no funciona en pacientes con Alzheimer en una etapa más avanzada. Esto tiene sentido, dice Wurtman, por que los pacientes con demencia más avanzada probablemente ya han perdido muchas neuronas, así que no pueden formar nuevas sinapsis.

Una prueba de dos años involucrando pacientes que no tienen Alzheimer, pero que están comenzando a mostrar discapacidad cognitiva, está ahora en proceso. Si la bebida parece ayudar, podría ser usada en gente que da positivo para señales tempranas de Alzheimer, antes de que los síntomas aparezcan, dice Wurtman. Dichas pruebas, que incluyen escaneo PET (Positron Emission Tomography – Tomografía por Emisión de Positrones) del hipocampo, son raramente realizadas ahora por que no hay buenos tratamientos de Alzheimer disponibles.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Microchips con rectángulos auto-ensamblables

Microchip
Imagen: Yan Liang

Una nueva técnica permite la producción de estructuras complejas de microchips en un paso de auto-ensamblaje.

David L. Chandler, MIT News Office. Original (en inglés).

Investigadores del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) han desarrollado un nuevo método para crear el complejo conjunto de cables y conexiones en microchips, utilizando un sistema de polímeros de auto-ensamblaje. El trabajo podría conducir eventualmente a una manera de hacer componentes más compactos en chips de memoria y otros dispositivos.

El nuevo método — desarrollado por el estudiante de doctorado visitante del MIT, Amir Tavakkoli, de la Universidad Nacional de Singapur, junto con otros dos estudiantes graduados y tres profesores en los departamentos de Ingeniería Eléctrica y Ciencias Computacionales (EECS) y de Ingeniería y Ciencia de los Materiales (DMSE) — es descrito en un artículo que será publicado este próximo mes de Agosto en la revista Advanced Materials; el artículo está disponible en línea ahora.

El proceso está estrechamente relacionado a un método que el mismo equipo describió el mes pasado en un artículo en Science, que hace posible la producción de configuraciones tridimensionales de cables y conexiones utilizando un sistema similar de polímeros autoensamblables.

En el nuevo artículo, los investigadores describen un sistema para producir matrices de cables que se encuentran en ángulos rectos, formando cuadrados y rectángulos. Si bien estas formas son la base para la mayoría de los diseños de circuitos de microchips, éstos son difíciles de producir a través del auto-ensamblado. Cuando las moléculas se auto-ensamblan, explica Caroline Ross, la profesora de Toyota de Ingeniería y Ciencia de los Materiales y co-autora de los artículos, tienen una tendencia natural a crear formas exagonales — como en un panal o en un conjunto de burbujas entre hojas de vidrio.

Por ejemplo, un conjunto de rodamientos pequeños en una caja “tiende a dar una simetría hexagonal, incluso aunque esté en una caja cuadrada”, Ross dice. “Pero eso no es lo que quieren los diseñadores de circuitos. Ellos quieren patrones con ángulos de 90 grados” — para superar la tendencia natural fue esencial producir un útil sistema de auto-ensamblaje, dice ella.

La solución del equipo crea una serie de pequeños postes en la superficie que guían los patrones de las moléculas de polímero de auto-ensamblaje. Esto resulta que tiene otras ventajas también: Además de producir patrones cuadrados y rectangulares perfectos de diminutos cables de polímeros, el sistema también permite la creación de una variedad de formas del material mismo, incluyendo cilindros, esferas, elipsoides y cilindros dobles. “Puedes generar este asombroso conjunto de características”, Ross dice, “con una plantilla muy simple”.

Karl Berggren, un profesor asociado de ingeniería eléctrica en el MIT y co-autor del artículo, explica que estas formas complejas son posibles porque “la plantilla, que está recubierta con el fin de repeler uno de los componentes poliméricos, causa una gran tensión local en el patrón. El polímero se tuerce y gira para tratar de evitar esta tensión, y al hacerlo se reorganiza en la superficie. Así podemos vencer las inclinaciones naturales de los polímeros, y hacer que creen patrones mucho más interesantes”.

Este sistema también puede producir características tales como conjuntos de agujeros en el material, cuyo espaciamiento está mucho más cerca de lo que se puede lograr utilizando métodos de fabricación de chips convencionales. Eso significa que puede producir características mucho más compactas en el chip de lo que los métodos actuales pueden crear — un paso importante en los esfuerzos en curso para empacar más y más componentes electrónicos en un determinado microchip.

“Esta nueva técnica puede producir múltiples [formas o patrones] simultáneamente”, dice Tavakkoli. Puede también hacer “patrones complejos, que es un objetivo para la fabricación de nanodispositivos”, con menos pasos que los procesos actuales. La fabricación de una amplia área de circuitos complejos en un chip utilizando la litografía por haz de electrones “podría tomar varios meses” dice. Por el contrario, utilizando el método de polímero auto-ensamblable tomaría sólo unos pocos días.

Eso está todavía demasiado lejos de la fabricación de un producto comercial, pero Ross explica grandes áreas en que este paso debe hacerse una sola vez para crear un patrón maestro, que luego pueda ser utilizado para estampar un revestimiento en otros chips en un proceso muy rápido de fabricación.

La técnica podría extenderse también más allá de la fabricación de microchips, dice Ross. Por ejemplo, un enfoque para la búsqueda de empacar cada vez mayores cantidades de datos en medios magnéticos como discos duros de computadoras, es utilizar un revestimiento magnético con un patrón muy fino estampado en él, definiendo con precisión las áreas donde cada bit de datos va a ser guardado. Un patrón tan fino podría potencialmente ser creado utilizando este método de auto-ensamblaje, ella dice, y luego estampado en los discos.

Craig Hawker, un profesor de química y bioquímica en la Universidad de California en Santa Barbara, que no estuvo involucrado en este trabajo, dice “Hay una necesidad y requisitos crecientes en la industria para encontrar una alternativa a la fotolitografía tradicional para la fabricación de dispositivos microelectrónicos de vanguardia. Este trabajo representa un logro fundamental en este campo y demuestra claramente que estructuras antes consideradas imposibles de alcanzar por una estrategia de auto-ensamblaje puede ahora ser preparada con un alto grado de fidelidad”.

Los colegas de Tavakkoli y Ross en este trabajo son los estudiantes de doctorado de DMSE, Adam Hannon y Kevin Gotrik, el profesor de DMSE, Alfredo Alexander-Kats y el profesor de EECS, Karl Berggren. La investigación, que incluye trabajo en el Laboratorio de Nanoestructuras y el centro de Litografía de Escaneo por Haz de Electrones del MIT, fue financiado por la Semiconductor Research Corporation, el Center on Functional Engineered Nano Architectonics, el Instituto Nacional de Recursos, la Alianza Singapore-MIT, la National Science Foundation, la Taiwan Semiconductor Manufacturing Company y Tokyo Electron.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Cifrado inquebrantable a prueba de torturas

Brain
Imagen: Mindcontrolgrid.com

Un equipo multidisciplinario de neurocientíficos y criptógrafos de Estados Unidos desarrollaron un sistema de contraseña que se asegura de mantener la clave en secreto… incluso para quien la posee.

El sistema criptográfico, llamado Serial Interception Sequence Learning (SISL), fue ideado por Hristo Bojinov de la Universidad de Stanford y amigos de Northwestern y del SRI, y está basado en el aprendizaje implícito, un proceso mediante el cual se puede absorber nueva información sin estar realmente consciente de ello.

Mediante un juego de computadora especialmente diseñado para aprender el password, parecido a Guitar Hero, el sistema ‘guarda’ la información en una zona específica del cerebro a la que no se puede accesar por voluntad propia, pues queda en el subconsciente esperando ser utilizada.

Antes de iniciar, el juego crea una secuencia aleatoria de 30 letras escogidas entre S, D, F, J, K, y L, sin caracteres repetidos. Hay seis botones, y cuando comienza, el usuario tiene que presionar el botón de la letra correspondiente cuando el círculo llega a la parte inferior.

La sesión dura aproximadamente 45 minutos, y el 80% de las pulsaciones de teclas realizadas están utilizandose para inconscientemente introducirte la contraseña de 30 caracteres. Un password tan largo como ese es millones de veces más seguro que un password promedio capaz de ser recordado.

Quizá a algunas personas no se les venga de inmediato a la mente las ventajas de poseer un password imposible de recordar de manera consciente, pero habrá quienes desearán que esto hubiera sido posible antes de tener que entregar la contraseña por orden de un juez.

Si no puedes recordar un password, no hay manera de que alguien lo obtenga mediante coacción o tortura, y será verdad cuando digas “lo siento, no puedo recordarlo”.

Referencia
http://www.extremetech.com/ (en inglés)

Investigadores desarrollan un nuevo amplificador para estudiar el universo

AMP estudiar Universo
Imagen: NASA/JPL-Caltech

Investigadores del Laboratorio de Propulsión a Chorro (JPL) de la NASA y el Instituto Tecnológico de California, ambos en Pasadena, han desarrollado un nuevo tipo de amplificador para aumentar las señales eléctricas. El dispositivo se puede utilizar para todo, desde el estudio de estrellas, galaxias y agujeros negros, hasta la exploración del mundo cuántico y el desarrollo de computadoras cuánticas.

“Este amplificador va a redefinir lo que es posible medir”, dijo Jonas Zmuidzinas, Jefe de tecnología en el JPL, quien es Profesor de Física en Merle Kingsley de Caltech y miembro del equipo de investigación.

Un amplificador es un dispositivo que aumenta la fuerza de una señal débil. “Los amplificadores juegan un papel básico en un amplio rango de mediciones científicas y la electrónica en general”, dijo Peter Day, un científico principal en JPL y visitante asociado en física en Caltech. “Para muchas tareas, los amplificadores actuales son suficientemente buenos. Pero para las aplicaciones más exigentes, las deficiencias de las tecnologías disponibles nos limitan”.

Una de las características clave del nuevo amplificador es que incorpora materiales superconductores que permiten a una corriente eléctrica fluir con resistencia cero cuando se baja a ciertas temperaturas. Para su amplificador, los investigadores están utilizando nitruro de titanio y nitruro de niobio-titanio, que tiene justo las propiedades adecuadas que permiten impulsar la señal para amplificar la señal débil.

A pesar de que el amplificador tiene una gran cantidad de aplicaciones potenciales, la razón por la que los investigadores construyeron el dispositivo fue para que les ayudara a estudiar el universo. El equipo construyó el instrumento para aumentar las señales de microondas, pero el nuevo diseño puede ser utilizado para construir amplificadores que ayuden a los astrónomos a observar en un amplia gama de longitudes de onda, desde ondas de radio hasta rayos X.

“Es difícil predecir lo que todas las aplicaciones van a terminar siendo, pero un amplificador casi perfecto es una cosa bastante útil para tener en tu bolsa de trucos”, dijo Zmuidzinas. Y mediante la creación de su nuevo dispositivo, los investigadores han demostrado que en efecto es posible construir un amplificador básicamente perfecto. “Nuestro instrumento aún tiene unos cuantos bordes ásperos que se deben pulir antes de que lo llamáramos perfecto, pero creemos que nuestros resultados hasta ahora muestran que podemos lograrlo”.

El equipo describió recientemente el nuevo instrumento en la revista Nature Physics.

El nuevo amplificador consiste en un material superconductor (nitruro de niobio-titanio) enrollado en un espiral doble 16 milímetros de diámetro. Imagen: NASA / JPL-Caltech

En adición a Zmuidzinas y Day, los otros autores del artículo son Byeong Ho Eom de Caltech, y Henry LeDuc del JPL. Esta investigación fue patrocinada por la NASA, el Instituto Keck para Estudios Espaciales, y el programa de Investigación y Desarrollo Tecnológico del JPL. El JPL es administrado por Caltech para la NASA.

Fuente
http://www.nasa.gov/ (en inglés)

Dell volverá a ofrecer Laptops con Ubuntu

Ubuntu
Ubuntu

TechCrunch informa que Dell estará oficialmente reincorporándose al mercado de los portátiles Linux. A partir de este otoño, venderá una ‘Developer Edition’ (Edición de Desarrollador) de su Ultrabook XPS13 que viene pre-cargado con Ubuntu, que es una distribución fácil de usar del sistema operativo de código abierto, Linux.

Dell comenzó a ofrecer los ordenadores con Linux pre-instalado en el año 2007 debido a la gran demanda en su buzón de sugerencias, pero dejó de anunciar a Ubuntu como una opción en su tienda en línea en el 2010, ya que era confuso para los usuarios promedio.

Sin embargo Barton George, líder de Proyecto Sputnik que fue anunciado esta primavera, comenta que en aquel entonces estos productos no estaban llegando al público indicado y que, de hecho, Dell aún vende un número considerable de laptops con Ubuntu fuera de los Estados Unidos.

George dijo que si bien estas laptop no estarán disponibles con un arranque dual con Windows, Dell ofrecerá una imagen de instalación de Ubuntu personalizada para su XPS13 para que quienes deseen un arranque dual, puedan comprar la versión con Windows e instalar Ubuntu.

La versión de desarrollador de la XPS13 vendrá con 4GB de memoria RAM, procesador Intel Core i7, y un solid-state drive de 256GB. El modelo que se encuentra actualmente en el mercado se vende por $1,499 dólares, pero la versión con Linux se venderá a un menor precio.

Con la creciente preocupación debido a los gestores de arranque cerrados en las computadoras con Windows 8 que posiblemente evitan que los usuarios instalen Linux u otros sistemas operativos alternativos, es refrescante ver a uno de los principales proveedores promoviendo la libertad computacional.

Referencia
http://techcrunch.com/ (en inglés)

Ojo biónico proporciona visión en escala de grises a personas invidentes

Bio-Retina
Imagen: Nano-retina.info

Después de muchas teorías, posturas, y ensayos no-humanos, parece que los implantes de ojo biónico finalmente llegan al mercado – primero en Europa, y esperemos que pronto al resto del mundo.

Estos implantes pueden devolver la vista a pacientes que padecen de una ceguera total, siempre y cuando ésta haya sido causada por una retina defectuosa, como en la degeneración macular (que millones de personas de la tercera edad padecen), retinopatía diabética y otras enfermedades oculares degenerativas.

Los costos de la Bio-Retina, desarrollada por Nano Retina, están alrededor de $60,000. El sensor de restauración de visión de 576 pixeles se coloca de hecho en el interior del ojo, en la parte superior de la retina, y el procedimiento puede realizarse con anestesia local en un lapso de solamente 30 minutos.

El sensor cuenta con 576 electrodos en su parte superior que se implantan a sí mismos en el nervio óptico, y un procesador de imágenes integrado convierte los datos de cada pixel en pulsos eléctricos que están codificados de manera que el cerebro pueda interpretar distintos niveles de la escala de grises.

Además, un par de lentes correctivos estándar modificados disparan un rayo láser cercano al infrarrojo a través del iris, dirigido al sensor ubicado detrás del ojo en el que opera una celda fotovoltáica que puede generar hasta 3 miliwatts, lo suficiente para que el sistema de Bio-Retina funcione.

Se tienen programados estudios en humanos a comienzos del próximo año, y aunque la aprobación de este implante podria demorar su aparición en el mercado de otros países, hay quienes tendrán la posibilidad de viajar a Europa si no desean esperar.

Referencia
http://www.extremetech.com/ (en inglés)