Gen recién encontrado podría ayudar a las bacterias a sobrevivir en entornos extremos

Célula sin membrana protectora.
Célula sin membrana protectora.

Los lípidos microbiales resultantes también podrían significar caídas de oxígeno en la historia geológica de la Tierra.

Jennifer Chu, MIT News Office. Original (en ingles)

En los días que siguieron el derrame petrolero del Deepwater Horizon, bacterias que consumen metano prosperaron en el Golfo de México, alimentándose del metano que brotó, junto con el petróleo, del pozo dañado. La súbita afluencia de microbios fue una curiosidad científica: Anteriormente al derrame petrolero, científicos habían observado relativamente pocos signos de microbios que consumían metano en el área.

Ahora investigadores del MIT han descubierto un gen bacterial que podría explicar esta súbita afluencia de bacterias que se alimentan de metano. Este gen le permite a las bacterias sobrevivir en entornos extremos y carentes de oxígeno, durmientes hasta que la comida – como el metano de un derrame petrolero, y el oxígeno necesario para metabolizarlo – se vuelve disponibles. El gen codifica una proteína, llamada HpnR, que es responsable por producir lípidos bacteriales conocidos como 3-metilhopanoides. Los investigadores dicen que producir estos lípidos podría preparar mejor a los microbios para hacer una aparición súbita en la naturaleza cuando las condiciones son favorables, como después del accidente del Deepwater Horizon.

Los lípidos producidos por la proteína HpnR también podrían ser usados como biomarcadores, o una firma en las capas de roca, para identificar cambios dramáticos en los niveles de oxígeno en el transcurso de la historia geológica.

“Lo que nos interesa es que esto podría ser una ventana al pasado geológico”, dice la posdoctorado Paula Welander del Departamento de Ciencias de la Tierra, Atmosféricas y Planetarias (EAPS – Earth, Atmospheric and Planetary Sciences) del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts). “En el registro geológico, hace muchos millones de años, vemos un número de eventos de extinciones masivas donde hay evidencia de agotamiento de oxígeno en el océano. Es en estos eventos clave, e inmediatamente después de estos, donde también vemos un incremento en todos los biomarcadores como indicadores de una perturbación climática. Parece ser parte de un síndrome de calentamiento, deoxigenización del océano y extinción biótica. Las causas son desconocidas”.

Welander y el profesor de EAPS Roger Summons han publicado sus resultados esta semana en el Proceedings of the National Academy of Sciences (PNAS).

Una señal en las rocas

Diploptene, un compuesto hopanoide.
Diploptene, un compuesto hopanoide.

Las capas rocosas de la tierra sostienen restos de la evolución de la vida, desde las antiguas trazas de organismos unicelulares a los recientes fósiles de vertebrados. Uno de los biomarcadores clave que los geólogos han usado para identificar las formas tempranas de vida es una clase de lípidos llamados hopanoides, cuya robusta estructura molecular los ha preservado en el sedimento por miles de millones de años. Los hopanoides también han sido identificados en las bacterias modernas, y los geólogos estudiando los lípidos en las rocas antiguas los han usado como señales de la presencia de bacterias similares hace miles de millones de años.

Pero Welander dice que los hopanoides podrían ser usados para identificar más que las tempranas formas de vida: Los fósiles moleculares podrían ser biomarcadores para fenómenos ambientales – como períodos de muy bajo oxígeno.

Para probar la teoría, Welander examinó una cepa moderna de la bacteria llamada Methylococcus capsulatus, un organismo ampliamente estudiado aislado por primera vez de un baño público romano antiguo en Bath, Inglaterra. El organismo, que también vive en entornos pobres en oxígeno como las ventosas en lo profundo del océano y los volcanes de lodo, ha sido de interés para los científicos por su habilidad de consumir eficientemente grandes cantidades de metano – lo que podría hacerla útil en biomediación y desarrollo de biocombustibles.

Para Welander y Summons, M. capsulatus es especialmente interesante por su estructura: El organismo contiene un tipo de hopanoide con una estructura molecular de cinco anillos que contiene metilación C-3. Los geólogos han encontrado que dichas metilaciones en la estructura de anillo son particularmente bien preservadas en rocas antiguas, aún cuando el resto del organismo ha desaparecido.

Welander estudió el genoma de la bacteria e identificó hpnR, el gen que codifica la proteína HpnR, el que está específicamente asociado con la metilación C-3. Entonces diseñó un método para borrar el gen, creando una cepa mutante. Welander y Summons entonces crecieron cultivos de cepas mutantes así como cultivos de bacterias salvajes (sin alteraciones). El equipo expuso ambas cepas a los niveles bajos de oxígeno y los altos niveles de metano durante un período de dos semanas para simular un entorno pobre en oxígeno.

Durante la primera semana, había poca diferencia entre los dos grupos, ambos de los cuales consumieron metano y crecieron a alrededor de la misma taza. Sin embargo, en el día 14, los investigadores observaron que la cepa salvaje comenzó a crecer más rápido que la bacteria mutante. Cuando Welander añadió el gen hpnR de vuelta en la bacteria mutante, encontró que eventualmente esta regresaba a los niveles que se asemejaban al de la cepa salvaje.

Apenas logrando sobrevivir

¿Qué podría explicar el contraste dramático en las tasas de sobrevivencia? Para responder esto, el equipo usó microscopía electrónica para examinar las estructuras celulares en las bacterias mutantes y salvajes. Descubrieron la marcada diferencia: Mientras que el tipo salvaje estaba lleno con membranas normales y vacuolas, la cepa mutante no tenía ninguna.

Una célula bacterial con el gen, a la izquierda, exhibe la membrana protectora. Una célula sin el gen, a la derecha, no produce membranas.
Una célula bacterial con el gen, a la izquierda, exhibe la membrana protectora. Una célula sin el gen, a la derecha, no produce membranas. Imagen: Paula Welander

Las membranas faltantes, dice Welander, son una pista a la función del lípido. Ella y Summons postulan que el gen hpnR podría preservar las membranas celulares de las bacterias, lo que podría reforzar al microbio en tiempos de nutrientes agotados.

“Tienes a estas comunidades que apenas salen del paso, sobreviviendo en lo que pueden”, dice Welander. “Entonces cuando reciben una ráfaga de oxígeno o metano, pueden tomarlo muy rápidamente. Están realmente preparadas para aprovechar algo como esto”.

Los resultados, dice Welander, son especialmente emocionantes desde una perspectiva geológica. Si los 3-metilhopanoides realmente permiten a las bacterias sobrevivir en tiempos de oxígeno bajo, entonces un pico en el lípido relacionado en el registro rocoso podría indicar una disminución dramática en la historia de la Tierra, permitiendo a los geólogos entender mejor los períodos de extinciones masivas o grandes muertes masivas oceánicas.

“La meta original fue hacer esto un mejor biomarcador para los geólogos”, dice Welander. “Es [un trabajo] muy meticuloso, pero al final también queremos causar un mayor impacto, por ejemplo aprender como los microorganismos lidian con los hidrocarbonos en el entorno”.

David Valentine, un profesor de geoquímica microbial en la Universidad de California en Santa Bárbara, dice que el lípido objetivo del grupo es parecido al colesterol, que juega un papel importante en las membranas de células humanas y animales. Dice que el gen identificado por el grupo podría jugar un papel similar en bacterias.

“Este trabajo demuestra una importante unidad en biología”, dice Valentine. “Sus resultados son un paso necesario en proveer contexto para interpretar la distribución de estos biomarcadores en el registro geológico”.

Esta investigación fue patrocinada por la NASA y la Fundación Nacional de Ciencia de los Estados Unidos.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Transplante de médula ósea parece haber librado a otros dos pacientes del virus del VIH

VIH
VIH-1 (en verde)
Imagen: C. Goldsmith

Un par de pacientes que estaban infectados con VIH y además padecían de cáncer, han dejado de dar positivo en los exámenes para la detección de este virus, tras más de dos años de haber recibido transplantes de médula ósea.

Aproximadamente 34 millones de personas están infectadas con VIH, el virus causante del SIDA, y no existe vacuna contra él, sólo puede mantenerse controlado mediante terapia antirretroviral (TARV) que consiste en cócteles de fármacos que mantienen suprimido al virus, pero que si se suspenden, vuelve a aparecer. Sin importar por cúanto tiempo los pacientes tomen estos fármacos, nunca los curará.

Sin embargo estos dos pacientes, cuya identidad no se ha revelado por razones de privacidad, junto con el famoso ‘paciente de Berlín’ (Timothy Brown), ofrecen verdaderas esperanzas de encontrar una cura.

Quienes padecen de SIDA son también propensos a desarrollar cáncer. En estos casos, generalmente los pacientes dejan la terapia antirretroviral antes de recibir tratamiento contra el cáncer, como por ejemplo, un transplante de médula ósea. La médula ósea es la fuente de células del sistema inmunitario del cuerpo a las que el VIH infecta, y es un lugar probable para buscar reservas de VIH.

Pero los dos pacientes que parecen estar curados, recibieron células madre de médula ósea para tratar los linfomas sin haber interrumpido el tratamiento con fármacos para el VIH, lo cual resultó ser la clave durante este proceso.

“Nos encontramos con que inmediatamente antes del trasplante y después del trasplante, el ADN del VIH se encontraba en las células. Como las células de los pacientes fueron reemplazadas por las células del donante, el ADN del VIH desapareció”, dijo el Dr. Daniel Kuritzkes, del Hospital Brigham and Women en Boston, quien supervisó el estudio. Las células del donante, al parecer, mataron y reemplazaron a las células infectadas, y mientras tanto, los medicamentos contra el VIH protegieron a las células del donante.

Un paciente después de dos años del transplante, y el otro después de tres y medio, parecen haberse finalmente librado del virus, ya que los doctores no logran encontrar rastro de VIH en sus cuerpos, ni siquiera con las pruebas más sensibles.

Aún así, los científicos están siendo cuidadosos al declararlos como ‘curados’. Los descubrimientos podrían no aplicar para todos aquellos que tienen el virus, ya que ambos pacientes tenían una mutación genética que hacía resistentes a sus células inmunes contra la infección por VIH. No obstante, las células provenientes de los donantes eran totalmente susceptibles al virus.

Por el momento, los pacientes continuarán con sus tratamientos farmacéuticos hasta que puedan dejarlos bajo condiciones experimentales.

Si bien esto no representa un camino bien definido hacia la cura del VIH, estos estudios han dado razones de sobra a los científicos para continuar con su búsqueda y quizás han señalado el área en que deben enfocar sus futuras investigaciones.

Referencia
http://www.msnbc.msn.com/ (en inglés)

Concepto de rayos X de la NASA inspirado de un rollo de cinta Scotch®

Maxim Markevitch
Maxim Markevitch
Imagen: NASA/D.McCallum

La inspiración detrás de la búsqueda del científico Maxim Markevitch de la NASA para construir un espejo de rayos X altamente especializado, usando una técnica nunca antes intentada, viene de una fuente inusual: un rollo de cinta Scotch®

Markevitch y un equipo de expertos en óptica de rayos X en el Centro de Vuelos Espaciales Goddard de la NASA en Greenbelt, Maryland, han comenzado a investigar la viabilidad de la configuración de un espejo de bajo costo de cinta plástica y enrrollándola estrechamente como la adhesiva pegajosa que encontramos comúnmente en la mayoría de los hogares y oficinas.

“Recuerdo que mirar un rollo de cinta Scotch y pensar, ‘era posible usar el mismo diseño para capturar rayos X duros’ “, Markevitch recordó. “Hablé con algunas personas, y para mi sorpresa, no vieron ninguna razón importante por la que no se podía hacer”.

Con el financiamiento del Fondo del Centro de Innovación de la NASA, el equipo ahora está llevando a cabo la idea en “fase inicial” de Markevitch y ha comenzado la prueba de materiales candidatos que podrían ser modelados en un espejo laminado capaz de recoger los rayos X — una propuesta ambiciosa en sí misma. Para capturar estos fotones siempre esquivos, los espejos deben ser curvos y anidados dentro de un conjunto óptico cilíndrico. La geometría redondeada permite a la luz de alta energía alimentar a sus superficies, muy similar a la rozadura de una piedra en la superficie de un estanque.

La motivación de Markevitch es el hecho de que estos espejos altamente especializados consumen mucho tiempo y son costosos de construir y ensamblar, a pesar de los esfuerzos para reducir drásticamente los costos de producción. Para chacer las cosas más exigentes está el hecho de que los observatorios de rayos X en el futuro probablemente requieran áreas de recolección mucho más grandes, por lo que requiere un número aún mayor de segmentos de espejos individuales y todos deben estar anidados, recubiertos con capas de materiales altamente reflectantes, y perfectamente alineados dentro de sus conjuntos ópticos. “Es mucho trabajo la fabricación de estas envolturas rígidas y asegurarse de que están correctamente alineadas” dijo él.

La Ciencia

La ciencia que a Markevitch le gustaría seguir es aquella que requeriría un espejo más grande. Durante las últimas décadas, la NASA ha puesto en marcha varios observatorios de rayos X sensibles a “rayos X blandos” de baja energía, incluyendo el Observatorio de rayos X Chandra. Se ha descubierto y fotografiado la débil, difusa señal de rayos X de una variedad de fuentes astrofísicas dominadas por la emisión térmica, tales como las galaxias y cúmulos de galaxias. Otras misiones, como el satélite Swift de la NASA, fueron sensibles a los rayos gamma de alta energía, pero carecían de capacidad de formación de imágenes.

“Queda un espacio de descubrimiento grande y totalmente inexplorado de tenues y difusos objetos astrofísicos no térmicos emitiendo en rayos X de alta energía”, dijo Markevitch.

Una clase de objetos esperando ser mejor entendidos son los rayos cósmicos — partículas subatómicas altamente energéticas generadas en el espacio profundo — que residen en cúmulos de galaxias y otras estructuras de gran escala en el Universo. Los científicos creen que los rayos cósmicos y los campos magnéticos entre cúmulos de galaxias pueden alterar la física dentro de los cúmulos de galaxias. Un mejor entendimiento de esta física podría revelar más sobre el nacimiento y la evolución del cosmos, dijo Markevitch.

Para estudiar los rayos císmicos, sin embargo, los observatorios tendrían que ser sintonizados para rayos X duros. Aunque el recientemente lanzado Nuclear Spectroscopic Telescope Array (NuSTAR) de la NASA y el nuevo Telescopio de Rayos X de Japón, también conocido como Astro-H, son sensibles a los rayos X duros, Markevitch dijo que estos sólo “van a rozar la superficie de este espacio de descubrimiento”. Dado que la señal es tan débil, sólo un telescopio de imágenes de rayos X con un área de recolección 30 veces más grande que la de NuSTAR, trabajando con los actuales y futuros radiotelescopios, podría hacer el trabajo, dijo Markevitch.

“Sin embargo, a nuestro entender, nada por el estilo está previsto ni propuesto en los Estados Unidos o en otros lados debido al costo que algo como esto representa”, dijo.

La única solución entonces es desarrollar una nueva tecnología que reduciría considerablemente el costo de construcción de óptica de rayos X y aumentar el tamaño del área colectora de luz. “Si podemos construir un espejo que sea lo suficientemente grande, este podría ser el camino a seguir”, dijo.

Bajo su plan de investigación, Markevitch, Takashi Okajima, Zhang, y Peter Serlemitsos están adquiriendo y probando cinta candidata que estaría recubierta por una cara con una multicapa de material reflectante y luego se enrollarla en un rollo, formando un gran número de envoltorios densamente empacados que están separados por el grosor variante de la cinta. “La superficie colectora es automática, es laminada, autosuficiente, y ya está alineada”, dijo Markevitch. Múltiples rollos luego se colocan en un conjunto óptico, proporcionando un área de recolección mucho más grande, o, en otras palabras, un espejo más grande.

“La idea de la cinta Scotch de Maxim se encuentra en una etapa temprana”, dijo Zhang. “En el año que viene, vamos a saber si tiene la oportunidad de funcionar”.

Si lo hace, podría ser “cambio de juego para la astronomía de rayos X duros”, dijo Markevitch. “Podría reducir significativamente el costo de la construcción de grandes espejos, trayendo al alcance la posibilidad de construir un espejo con un área efectiva de 10 a 30 veces mayor que los actuales telescopios de rayos X”.

http://www.nasa.gov/ (en inglés)

Derretimiento sin precedentes en la capa de hielo de Groenlandia

Hielo
Imagen: Joe Mastroianni

Durante varios días de este mes, la capa de hielo de la superficie de Groenlandia se derritió en un área mayor que en cualquier momento en más de 30 años de observaciones satelitales. Casi toda la cubierta de hielo de Groenlandia, desde sus delgados, bajos bordes costeros hasta su centro de dos kilómetros de espesor, experimentó cierto grado de derretimiento en su superficie, de acuerdo con las mediciones de tres satélites independientes analizadas por la NASA y científicos de universidad.

En promedio en el verano, cerca de la mitad de la superficie de la capa de hielo de Groenlandia se derrite de forma natural. En altas elevaciones, la mayor parte de esa agua de deshielo rápido vuelve a congelarse en su lugar. Cerca de la costa, parte del agua de deshielo es retenida por la capa de hielo y el resto se pierde en el océano. Pero este año la extensión del hielo derritiendose en la superficie o cerca de ella ha aumentado notablemente. De acuerdo con los datos satelitales, se estima que el 97% de la superficie de la capa de hielo se descongeló en algún momento a mediados de julio.

Los investigadores aún no han determinado si este evento de extenso deshielo afectará el volumen global de pérdida de hielo este verano y contribuirá a la elevación del nivel del mar.

“La capa de hielo de Groenlandia es una extensa zona con una variada historia de cambio. Este evento, junto con otros fenómenos naturales pero poco frecuentes, como el gran evento de desprendimiento de hielo la semana pasada en el Glaciar Petermann, son parte de una historia compleja”, dijo Tom Wagner , director del programa de la criosfera de la NASA en Washington. “Las observaciones por satélite están ayudando a entender cómo eventos como estos pueden relacionarse unos con otros, así como con el sistema climático más amplio.”

Son Nghiem, del Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California, estaba analizando datos de radar del satélite Oceansat-2 de la Indian Space Research Organisation (ISRO) la semana pasada cuando se dio cuenta de que la mayor parte de Groenlandia pareció haber sufrido derretimiento de la superficie el 12 de julio. Nghiem dijo: “Esto fue tan extraordinario que al principio cuestioné el resultado: ¿fue esto real o se debió a un error de datos?”

Nghiem consultó con Dorothy Hall en el Centro Goddard de Vuelo Espacial de la NASA en Greenbelt, Maryland. Hall estudia la temperatura de la superficie de Groenlandia usando el Espectroradiometro de Imágenes de resolución Moderada (MODIS) a bordo de los satélites Terra y Aqua de la NASA. Ella confirmó que MODIS mostró temperaturas inusualmente altas y que el deshielo era abundante sobre la superficie de la capa de hielo.

Thomas Mote, un climatólogo de la Universidad de Georgia, Athens, Georgia, y Marco Tedesco, de la Universidad de la Ciudad de Nueva York también confirmó el deshielo visto por Oceansat-2 y MODIS con los datos de satélite de microondas pasivas del Special Sensor Microwave Imager/Sounder en un satélite meteorológico de la Fuerza Aérea de los Estados Unidos.

El deshielo se extendió rápidamente. Mapas del derretimiento derivados de los tres satélites mostraron que el 8 de julio, alrededor del 40% de la superficie de la capa de hielo se había derretido. Para el 12 de julio, el 97% se había derretido.

Groenlandia
Imagen: Nicolo E. DiGirolamo, SSAI/NASA GSFC, y Jesse Allen, NASA Earth Observatory

Este evento de derretimiento extremo coincidió con un frente inusualmente fuerte de aire caliente, o una cúpula de calor, sobre Groenlandia. El frente era uno de una serie que ha dominado el clima de Groenlandia desde finales de mayo. “Cada frente sucesivo ha sido más fuerte que el anterior”, dijo Mote. Esta última cúpula de calor comenzó a moverse sobre Groenlandia el 8 de julio, y luego se estacionó sobre la capa de hielo unos tres días después. Por el 16 de julio, había comenzado a disiparse.

Incluso el área alrededor de la Estación Summit en el centro de Groenlandia, que a 2 kilómetros sobre el nivel del mar está cerca del punto más alto de la capa de hielo, mostró signos de deshielo. Tal derretimiento pronunciado en Summit y en toda la capa de hielo no se ha producido desde 1889, de acuerdo con los núcleos de hielo analizados por Kaitlin Keegan en el Dartmouth College en Hanover, New Hampshire. Una estación meteorológica de la Administración Nacional Oceánica y Atmosférica (NOAA) en Summit confirmó que las temperaturas del aire rondaron por encima o a un grado del congelamiento por varias horas el 11-12 de julio.

“Los núcleos de hielo de Summit muestran que los eventos de deshielo de este tipo ocurren aproximadamente una vez cada 150 años en promedio. Con el último acontecimiento en el año 1889, este evento esta justo a tiempo”, dice Lora Koenig, un glaciólogo del Goddard y miembro del equipo de investigación que analiza los datos obtenidos por satélite. “Pero si seguimos observando acontecimientos de derretimiento de este tipo en los próximos años, será preocupante”.

El descubrimiento de Nghiem mientras analizaba datos del Oceansat-2 era el tipo de beneficio que la NASA y la ISRO tenían la esperanza de estimular cuando firmaron un acuerdo en marzo de 2012 para cooperar en Oceansat-2 con el intercambio de datos.

Fuente
http://www.nasa.gov/ (en inglés)

Un sistema solar lejano

Kepler-30c orbitando
Kepler-30c orbitando

Investigadores miden la orientación de un sistema multiplanetario y la encuentran muy similar a la de nuestro propio sistema solar.

Jennifer Chu, MIT News Office. Original (en inglés)

Nuestro sistema solar exhibe una configuración notablemente ordenada: Los ocho planetas orbitan el sol como corredores en una pista, circulando en sus respectivos carriles y siempre manteniendo el mismo plano. En contraste, la mayoría de los exoplanetas descubiertos en años recientes – particularmente los gigantes conocidos como ‘Jupiters calientes’ – habitan orbitas más excéntricas.

Ahora investigadores en el MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts), la Universidad de California en Santa Cruz y otras instituciones han detectado el primer sistema exoplanetario, a 10,000 años luz de distancia, con órbitas regularmente alineadas similares a aquellas en nuestro sistema solar. En el centro de este sistema lejano se encuentra Kepler-30, una estrella tan brillante y masiva como el sol. Después de analizar datos del telescopio espacial Kepler de la NASA, los científicos del MIT y sus colegas descubrieron que la estrella – de forma similar al Sol – rota alrededor de un eje vertical y sus tres planetas tienen órbitas que están todas en el mismo plano.

“En nuestro sistema solar, la trayectoria de los planetas es paralela a la rotación del sol, lo que muestra que probablemente se formaron de un disco rotando,” dice Roberto Sanchis-Ojeda, un estudiante graduado de física en el MIT quien lideró el esfuerzo investigativo. “En este sistema, mostramos que la misma cosa sucede.”

Sus hallazgos, publicados hoy en el diario Nature, podría ayudar a explicar los origenes de ciertos sistemas muy extensos mientras que arroja luz en nuestro propio vecindario planetario.

“Esto me está diciendo que el sistema solar no es algún tipo de casualidad,” dice Josh Winn, un profesor asociado de física en el MIT y co-autor del artículo. “El hecho de que la rotación del sol está alineada con las órbitas de los planetas, probablemente no es algún tipo de coincidencia extraña.”

Poniendo en claro las inclinaciones orbitales

Representación artística de un Jupiter caliente
Representación artística de un Jupiter caliente. Imagen: NASA

Winn dice que el descubrimiento del equipo puede respaldar una teoría reciente sobre como se formaron los Jupiters calientes. Estos cuerpos gigantes son nombrados por su proximidad extremadamente cercana a sus estrellas blancas calientes, completando una órbita en solo horas o días. Las órbitas de los Jupiter calientes son típicamente descentradas, y los científicos han pensado que dichas desalineaciones podrían ser una pista a sus orígenes: Sus órbitas podrían haber sido desviadas en el periodo muy temprano y volátil de la formación de un sistema planetario, cuando varios planetas gigantes pudieron haberse acercado tanto como para dispersar algunos planetas fuera del sistema mientras que acercaron más a sus estrellas a otros.

Recientemente, los científicos han identificado un número de sistemas con Jupiters calientes, todos los cuales tienen órbitas inclinadas. Pero para realmente probar esta teoría de la “dispersión planetaria”, Winn dice que los investigadores tienen que identificar un sistema sin Jupiter caliente, uno con planetas circulando más lejos de su estrella. Si el sistema estuviera alineado como nuestro sistema solar, sin inclinación orbital, proveería evidencia de que solo los sistemas con Jupiter calientes están desalineados, formados como resultado de dispersión planetaria.

Encontrando mánchas solares en un sol lejano

Para poder resolver el misterio, Sanchis-Ojeda estudio datos del telescopio espacial Kepler, un instrumento que monitorea 150,000 estrellas por señales de planetas distantes. El lo enfocó en Kepler-30, un sistema sin Jupiter caliente con tres planetas, todos con órbitas mucho más largas que las de un Jupiter caliente típico. Para medir la alineación de la estrella, Sanchis-Ojeda rastreó sus manchas solares, manchas oscuras en la superficie de estrellas brillantes como el sol.

Representación artística del planeta Kepler-30c transitando una de las machas solares de la estrella.
Representación artística del planeta Kepler-30c transitando una de las machas solares de la estrella. Imagen: Cristina Sanchis Ojeda

“Estas pequeñas manchas negras marchan a través de la estrella conforme rota,” dice Winn. “Si pudiéramos hacer una imagen sería muy bueno, por que verías exactamente como está orientada la estrella con solo rastrear estos puntos.”

Pero estrellas como Kepler-30 están extremadamente lejos, así que capturar la imagen de ellas es casi imposible: La única manera de documentar dichas estrellas es al medir la pequeña cantidad de luz que ellas dan. Así que el equipo buscó maneras de rastrear manchas solares usando la luz de estas estrellas. Cada vez que un planeta transita – o cruza en frente de – dicha estrella, bloquea un poco de luz solar, lo que los astrónomos ven como una caída en la intensidad de la luz. Si un planeta cruza un punto oscuro, la cantidad de luz bloqueada se reduce, creando una variación en la caída de luz.

“Si obtienes una variación causada po una mancha solar, entonces la próxima vez que el planeta llega, el mismo punto se ha movido de ahí, y verías la variación no aquí sino allá,” dice Winn. “Así que el tiempo de estas variaciones es lo que usamos para determinar la alineación de una estrella.”

De las variaciones de datos, Sanchis-Ojeda concluyó que Kepler-30 rota en un eje perpendicular al plano orbital de su planeta más grande. Los investigadores determinaron entonces la alineación de las órbitas de los planetas estudiando los efectos gravitaciones de un planeta en el otro. Midiendo las variaciones temporales de los planetas conforme transitan la estrella, el equipo derivó sus configuraciones orbitales respectivas, y encontró que todos los tres planetas están alineados en el mismo plano. La estructura planetaria general, encontró Sanchis-Ojeda, se ve mucho como la de nuestro sistema solar.

James Lloyd, un profesor asistente de astronomía en la Universidad Cornell quien no estuvo involucrado en esta investigación, dice que estudiando las órbitas planetaria podría arrojar luz sobre como la vida evolucionó en el universo – ya que para tener un clima estable adecuado para la vida, un planeta necesita una órbita estable. “Para poder entender como la vida común es en el universo, necesitamos entender que tan comunes son los sistemas planetarios estables,” dice Lloyd. “Podríamos encontrar pistas en sistemas planetarios extrasolares para ayudar a entender los acertijos del sistema solar, y vice versa.”

Los hallazgos de este primer estudio de la alineación de un sistema sin Jupiter caliente sugieren que los sistemas de Jupiter calientes podrían realmente formarse por medio de dispersión planetaria. Para asegurarse, Winn dice que el y sus colegas planean medir las órbitas de otros sistemas solares lejanos.

“Hemos estado muy hambrientos por algo como esto, donde no es exactamente como el sistema solar, pero al menos más normal, donde los planetas y la estrella están alineados uno con otro,” dice Winn. “Es el primer caso donde puedes decir eso, además del sistema solar.”

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Un nuevo acercamiento a la desalinización de agua

Desalinización

Hojas de grafeno con poros controlados precisamente tienen potencial para purificar agua más eficientemente que los métodos existentes.

David L. Chandler, MIT News Office. Original (en inglés).

La disponibilidad del agua fresca esta disminuyendo en muchas partes del mundo, un problema que se espera que crezca con la población. Una fuente prometedora de agua potable es la cantidad virtualmente ilimitada de agua de mar en el mundo, pero hasta ahora la tecnología de desalinización ha sido muy cara para el uso extendido.

Ahora, investigadores del MIT han diseñado un nuevo acercamiento usando un tipo diferente de material de filtración: hojas de grafeno, una forma del elemento carbono de un átomo de grosor, el cual dicen que es mucho más eficiente y posiblemente menos caro que los sistemas existentes de desalinización.

Desalinización con grafeno
Desalinización con grafeno. Imagen: David Cohen-Tanugi

“No hay mucha gente trabajando en la desalinización desde un punto de vista de materiales,” dice Jeffrey Grossman, el profesor asociado de Ingeniería de Energía en el Departamento de Ciencia de Materiales e Ingeniería del MIT, quien es el autor principal de un artículo describiendo el nuevo proceso en el diario Nano Letters.

Grossman y el estudiante graduado David Cohen-Tanugi, quien es el autor líder del artículo, apuntaron a “controlar las propiedades del material hasta el nivel atómico,” produciendo una hoja de grafeno perforada con agujeros de un tamaño preciso. También añadieron otros elementos al material, causando que los bordes de esas minúsculas aperturas interactuen químicamente con las moléculas de agua – ya sea repeliéndolas o atrayéndolas.

“Estuvimos muy placenteramente sorprendidos por lo bien que el grafeno se desempeñó comparado a los sistemas existentes en las simulaciones por computadora,” dice Grossman.

Un método común de desalinización, llamado ósmosis inversa, usa membranas para filtrar la sal del agua. Pero estos sistemas requieren presión extremadamente alta – y por lo tanto, uso de energía – para forzar el agua a través de las delgadas membranas, las que son alrededor de mil veces más gruesas que el grafeno. El nuevo sistema de grafeno opera a una presión mucho más baja, y por lo tanto podría purificar el agua con un costo mucho más bajo, dicen los investigadores.

Mientras que la ósmosis reversa ha sido utilizada por décadas, “los mecanismos realmente básicos de separar la sal del agua no están bien entendidos, y son muy complejos,” dice Cohen-Tanugi, añadiendo que es muy difícil hacer experimentos a la escala de moléculas y iones individuales. Pero el nuevo sistema basado en grafeno, dice, trabaja “cientos de veces más rápido que las técnicas actuales, con la misma presión” – o, alternativamente, el sistema podría alcanzar las mismas tasas de los sistemas actuales, pero con presión más baja.

La clave para el nuevo proceso es el control preciso sobre el tamaño de los agujeros en la hoja de grafeno. “Hay un punto preciso, pero es muy pequeño,” dice Grossman – entre los poros lo suficientemente grandes para que pueda pasar la sal a través y lo suficientemente pequeños para que las moléculas de agua sean bloqueadas. El tamaño ideal es apenas por encima de un nanómetro, o una mil millonésima parte de un metro, dice. Si los agujeros son apenas ligeramente más pequeños – 0.7 nanómetros- el agua no circulará.

Otros grupos de investigación han trabajado para crear poros en el grafeno, dice Cohen-Tanugi, pero con tamaños diferentes y para diferentes propósitos – por ejemplo, haciendo agujeros mucho más grandes para filtrar moléculas como el ADN, o para separar diferentes tipos de gases. Los métodos usados para estos procesos no fueron lo suficientemente precisos para hacer los pequeños agujeros necesarios para la desalinización, dijo, pero técnicas más avanzadas – como el bombardeo de helio-ion para hacer agujeros precisos en el grafeno, grabados químicos y sistemas de auto-ensamblado – podrían ser adecuadas.

Por ahora, Grossman y Cohen-Tanugi han estado haciendo simulaciones de computadora de el proceso para determinar sus características óptimas. “Comenzaremos a trabajar en el prototipo este verano,” dice Grossman.

Debido a que el grafeno ha sido objeto de investigación en muchas aplicaciones diferentes, ha habido una gran cantidad de trabajo en encontrar maneras de hacerlo económico y en grandes cantidades. Y para la desalinización, debido a que el grafeno es un material tan fuerte – libra por libra, es el material más fuerte conocido – las membranas deberían de ser más durables que aquellas siendo actualmente usadas para la ósmosis inversa, dice Grossman.

Adicionalmente a esto, el material necesario para la desalinización no necesita ser tan puro como para usos electrónicos u ópticos, dice: “Unos pocos defectos no importan, mientras que no se abran” para que así la sal pueda pasar a través.

Joshua Schrier, un profesor asistente de química en el Colegio Haverford, dice, “Simulaciones previas han estudiado el flujo de agua a través de muy pequeños agujeros en el grafeno, y el diseño de poros que selectivamente permitan el paso de iones, pero – a pesar de la relevancia social y de ingeniería relevante a la desalinisación – nadie ha podido examinar las intersecciones de estos dos campos.” El trabajo por el equipo del MIT podría abrir un nuevo acercamiento a la desalinización, dice.

Schrier añade, “Manufacturar las estructuras porosas muy precisas que son encontradas en este artículo será difícil de hacer en gran escala con los métodos existentes.” Sin embargo, dice, “las predicciones son lo suficientemente exitantes que deberían de motivar a los ingenieros químicos a desarrollar análisis económicos más detallados de la desalinización del agua con estos tipos de materiales.”

El trabajo fue fundado por la Iniciativa de Energía del MIT y la Beca John S. Hennessy, y utilizó recursos computacionales del Centro Nacional de Computación Científica para la Investigación de Energia.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Mezcla de nutrientes mejora la memoria en pacientes con Alzheimer temprano

Sinapsis, una conexión entre células cerebrales.
Sinapsis, una conexión entre células cerebrales.
Imagen: Christine Daniloff

En pruebas clínicas, una mezcla desarrollada en el MIT parece ayudar a vencer la pérdida de conexiones entre las células del cerebro.

Anne Trafton, MIT News Office. Original (en inglés).

Una prueba clínica de un tratamiento para la enfermedad de Alzheimer desarrollado en el MIT ha encontrado que el cóctel de nutrientes puede mejorar la memoria en pacientes con Alzheimer temprano. Los resultados confirman y expanden los descubrimientos de una prueba anterior del suplemento nutricional, que está desarrollado para promover nuevas conexiones entre células cerebrales.

Los pacientes de Alzheimer gradualmente pierden esas conexiones, conocidas como sinapsis, llevando a la pérdida de memoria y otras deficiencias cognitivas. El suplemento, conocido como Souvenaid, parece estimular el crecimiento de nuevas sinapsis, dice Richard Wurtman, el distinguido profesor en el MIT quien inventó la mezcla de nutrientes.

“Quieres aumentar el número de sinapsis, no mediante alentar su degradación – aunque por supuesto también te encantaría hacer eso – sino incrementando la formación de sinapsis,” dice Wurtman.

Para hacer eso, a Wurtman se le ocurrió hacer una mezcla de tres compuestos dietarios naturales: colina, uridina y ácido docosahexaenoico (DHA) de la serie omega-3. La colina puede ser encontrado en una variedad de fuentes, incluyendo el pescado, huevos, lino y carne de animales que se alimentan de pasto. La uridina es producida por el hígado y el riñón, y está presente en algunas comidas como un componente del ácido ribonucleico (ARN).

Estos nutrientes son precursores de las moléculas lípidas que, junto con proteínas específicas, forman las membranas de las células cerebrales, lo que forma sinapsis. Para ser efectivo, los tres precursores deben de ser administrados juntos.

Resultados de la prueba clínica, conducidos en Europa, aparecen en la edición del 10 de julio del Diario de la Enfermedad de Alzheimer (Journal of Alzheimer’s Disease). Los nuevos hallazgos son alentadores por que muy pocas pruebas clínicas han producido mejoras consistentes en los pacientes de Alzheimer, dice Jeffrey Cummings, director del Centro Lou Ruvo para la Salud Cerebral de la Clínica de Cleveland.

“La pérdida de memoria es la característica central del Alzheimer, así que algo que mejora la memoria sería de gran interés,” dice Cummings, quien no fue parte del equipo investigador.

Los planes para el lanzamiento comercial del suplemento no están finalizados, de acuerdo a Nutricia, la compañía probando y comercializando Souvenaid, pero probablemente esté disponible en Europa primero. Nutricia es la división especializada en el cuidado de la salud de la compañía de alimentos Danone, conocida como Dannon en los Estados Unidos.

Formando conexiónes

Espinas Dendríticas
Espinas Dendríticas

A Wurtman se le ocurrió por primera vez la idea de enfocarse en la pérdida de sinapsis para combatir el Alzheimer hace alrededor de 10 años. En estudios animales, el mostró que este cóctel dietario aumentaba el número de espinas dendríticas, o pequeños afloramientos en las neuronas membranas, encontradas en las células cerebrales. Estas espinas son necesarias para formar nuevas sinapses entre neuronas.

Tras los exitosos estudios animales, Philip Schelten, director del Centro de Alzheimer en el Centro Médico Universitario UV en Amsterdam, llevó a cabo una prueba clínica en Europa involucrando a 225 pacientes con Alzheimer leve. Los pacientes bebieron Souvenaid o una bebida de control diariamente por tres meses.

Ese estudio, reportado por primera vez en el 2008, encontró que 40 por ciento de los pacientes que consumieron la bebida mejoraron en una prueba de memoria verbal, mientras que 24 por ciento de los pacientes que recibieron la bebida de control mejoraron su rendimiento.

El nuevo estudio, desarrollado en varios países Europeos y supervisado por Scheltes como investigador principal, siguió a 259 pacientes por seis meses. Los pacientes, ya sea que tomaran Souvenaid o un placebo, mejoraron el desempeño de su memoria verbal durante los primeros tres meses, pero los pacientes con placebo se deterioraron durante los siguientes tres meses, mientras que los pacientes con Souvenaid continuaron mejorando. Para esta prueba, los investigadores usaron pruebas de memoria más exhaustivas tomadas de la batería de pruebas neuropsicológicas, comúnmente usadas paras evaluar a los pacientes de Alzheimer en investigación clínica.

Los pacientes mostraron una alta taza de conformidad: Alrededor del 97 por ciento de los pacientes siguieron el régimen a lo largo del estudio, y ningún efecto secundario serio fue visto.

Ambas pruebas clínicas fueron patrocinadas por Nutricia. El MIT ha patentado la mezcla de nutrientes usados en el estudio, y Nutricia tiene la licencia exclusiva sobre la patente.

Patrones cerebrales

Tomografía por emisión de positrones
Tomografía por emisión de positrones

En el nuevo estudio, los investigadores usaron electroencefalografía (EEG – Electroencephalography) para medir como los patrones de actividad cerebral de los pacientes cambiaron a través del estudio. Encontraron que conforme las pruebas progresaban, los cerebros de los pacientes recibiendo suplementos comenzaron a cambiar de patrones típicos de demencia a patrones más normales. Debido a que los patrones en un EEG reflejan la actividad sináptica, esto sugiere que la función sináptica aumentó como resultado del tratamiendo, dicen los investigadores.

Los pacientes entrando en este estudio estaban el las etapas tempranas de la enfermedad de Alzheimer, obteniendo un promedio de 25 en una escala de demencia que va del 1 al 30, con el 30 siendo lo normal. Una prueba previa encontró que el cóctel suplemento no funciona en pacientes con Alzheimer en una etapa más avanzada. Esto tiene sentido, dice Wurtman, por que los pacientes con demencia más avanzada probablemente ya han perdido muchas neuronas, así que no pueden formar nuevas sinapsis.

Una prueba de dos años involucrando pacientes que no tienen Alzheimer, pero que están comenzando a mostrar discapacidad cognitiva, está ahora en proceso. Si la bebida parece ayudar, podría ser usada en gente que da positivo para señales tempranas de Alzheimer, antes de que los síntomas aparezcan, dice Wurtman. Dichas pruebas, que incluyen escaneo PET (Positron Emission Tomography – Tomografía por Emisión de Positrones) del hipocampo, son raramente realizadas ahora por que no hay buenos tratamientos de Alzheimer disponibles.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Los choques de asteroides probablemente dieron a la Tierra su agua

Asteroid impact dinosaur extinction
Imagen: Don Davis

Un nuevo estudio sugiere que el agua de nuestro planeta Tierra quizás provenga principalmente de asteroides del sistema solar interior, contradiciendo teorías anteriores que sostenían que su agua tuvo origen en cometas o asteroides que colisionaron más allá de la órbita de Júpiter y luego migraron hacia adentro.

En el estudio, llevado a cabo por Conel Alexander de la Institución Carnegie de Washington y sus colegas, se analizaron muestras de 86 condritas carbonáceas, que son meteoritos primitivos con un contenido elevado de carbono y, se piensa, son la mayor fuente de elementos volátiles como hidrógeno y nitrógeno en nuestro planeta.

Alexander comenta que sus resultados “tienen importantes implicaciones para los modelos actuales de la formación y evolución orbital de los planetas y objetos más pequeños en nuestro sistema solar”.

La cantidad de deuterio encontrado en las cuencas hidrográficas de hielo de los cuerpos celestes indican dónde se formaron estos; los cuerpos que toman forma lejos del Sol suelen poseer altas concentraciones de este elemento, por lo que los científicos piensan que la mayoría de los cometas nacieron en helados confines del sistema solar.

Los niveles de deuterio de las muestras de condritas sugieren que los cuerpos progenitores se formaron en un área relativamente cercana al Sol, pudiera ser, en el cinturón de asteroides entre Marte y Júpiter.

Ya que la composición isotópica de la Tierra es más consistente con las condritas que con los cometas, probablemente el planeta ha acrecentado su agua y otros volátiles de una variedad de asteroides progenitores.

Referencia
http://www.space.com/ (en inglés)

Microchips con rectángulos auto-ensamblables

Microchip
Imagen: Yan Liang

Una nueva técnica permite la producción de estructuras complejas de microchips en un paso de auto-ensamblaje.

David L. Chandler, MIT News Office. Original (en inglés).

Investigadores del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) han desarrollado un nuevo método para crear el complejo conjunto de cables y conexiones en microchips, utilizando un sistema de polímeros de auto-ensamblaje. El trabajo podría conducir eventualmente a una manera de hacer componentes más compactos en chips de memoria y otros dispositivos.

El nuevo método — desarrollado por el estudiante de doctorado visitante del MIT, Amir Tavakkoli, de la Universidad Nacional de Singapur, junto con otros dos estudiantes graduados y tres profesores en los departamentos de Ingeniería Eléctrica y Ciencias Computacionales (EECS) y de Ingeniería y Ciencia de los Materiales (DMSE) — es descrito en un artículo que será publicado este próximo mes de Agosto en la revista Advanced Materials; el artículo está disponible en línea ahora.

El proceso está estrechamente relacionado a un método que el mismo equipo describió el mes pasado en un artículo en Science, que hace posible la producción de configuraciones tridimensionales de cables y conexiones utilizando un sistema similar de polímeros autoensamblables.

En el nuevo artículo, los investigadores describen un sistema para producir matrices de cables que se encuentran en ángulos rectos, formando cuadrados y rectángulos. Si bien estas formas son la base para la mayoría de los diseños de circuitos de microchips, éstos son difíciles de producir a través del auto-ensamblado. Cuando las moléculas se auto-ensamblan, explica Caroline Ross, la profesora de Toyota de Ingeniería y Ciencia de los Materiales y co-autora de los artículos, tienen una tendencia natural a crear formas exagonales — como en un panal o en un conjunto de burbujas entre hojas de vidrio.

Por ejemplo, un conjunto de rodamientos pequeños en una caja “tiende a dar una simetría hexagonal, incluso aunque esté en una caja cuadrada”, Ross dice. “Pero eso no es lo que quieren los diseñadores de circuitos. Ellos quieren patrones con ángulos de 90 grados” — para superar la tendencia natural fue esencial producir un útil sistema de auto-ensamblaje, dice ella.

La solución del equipo crea una serie de pequeños postes en la superficie que guían los patrones de las moléculas de polímero de auto-ensamblaje. Esto resulta que tiene otras ventajas también: Además de producir patrones cuadrados y rectangulares perfectos de diminutos cables de polímeros, el sistema también permite la creación de una variedad de formas del material mismo, incluyendo cilindros, esferas, elipsoides y cilindros dobles. “Puedes generar este asombroso conjunto de características”, Ross dice, “con una plantilla muy simple”.

Karl Berggren, un profesor asociado de ingeniería eléctrica en el MIT y co-autor del artículo, explica que estas formas complejas son posibles porque “la plantilla, que está recubierta con el fin de repeler uno de los componentes poliméricos, causa una gran tensión local en el patrón. El polímero se tuerce y gira para tratar de evitar esta tensión, y al hacerlo se reorganiza en la superficie. Así podemos vencer las inclinaciones naturales de los polímeros, y hacer que creen patrones mucho más interesantes”.

Este sistema también puede producir características tales como conjuntos de agujeros en el material, cuyo espaciamiento está mucho más cerca de lo que se puede lograr utilizando métodos de fabricación de chips convencionales. Eso significa que puede producir características mucho más compactas en el chip de lo que los métodos actuales pueden crear — un paso importante en los esfuerzos en curso para empacar más y más componentes electrónicos en un determinado microchip.

“Esta nueva técnica puede producir múltiples [formas o patrones] simultáneamente”, dice Tavakkoli. Puede también hacer “patrones complejos, que es un objetivo para la fabricación de nanodispositivos”, con menos pasos que los procesos actuales. La fabricación de una amplia área de circuitos complejos en un chip utilizando la litografía por haz de electrones “podría tomar varios meses” dice. Por el contrario, utilizando el método de polímero auto-ensamblable tomaría sólo unos pocos días.

Eso está todavía demasiado lejos de la fabricación de un producto comercial, pero Ross explica grandes áreas en que este paso debe hacerse una sola vez para crear un patrón maestro, que luego pueda ser utilizado para estampar un revestimiento en otros chips en un proceso muy rápido de fabricación.

La técnica podría extenderse también más allá de la fabricación de microchips, dice Ross. Por ejemplo, un enfoque para la búsqueda de empacar cada vez mayores cantidades de datos en medios magnéticos como discos duros de computadoras, es utilizar un revestimiento magnético con un patrón muy fino estampado en él, definiendo con precisión las áreas donde cada bit de datos va a ser guardado. Un patrón tan fino podría potencialmente ser creado utilizando este método de auto-ensamblaje, ella dice, y luego estampado en los discos.

Craig Hawker, un profesor de química y bioquímica en la Universidad de California en Santa Barbara, que no estuvo involucrado en este trabajo, dice “Hay una necesidad y requisitos crecientes en la industria para encontrar una alternativa a la fotolitografía tradicional para la fabricación de dispositivos microelectrónicos de vanguardia. Este trabajo representa un logro fundamental en este campo y demuestra claramente que estructuras antes consideradas imposibles de alcanzar por una estrategia de auto-ensamblaje puede ahora ser preparada con un alto grado de fidelidad”.

Los colegas de Tavakkoli y Ross en este trabajo son los estudiantes de doctorado de DMSE, Adam Hannon y Kevin Gotrik, el profesor de DMSE, Alfredo Alexander-Kats y el profesor de EECS, Karl Berggren. La investigación, que incluye trabajo en el Laboratorio de Nanoestructuras y el centro de Litografía de Escaneo por Haz de Electrones del MIT, fue financiado por la Semiconductor Research Corporation, el Center on Functional Engineered Nano Architectonics, el Instituto Nacional de Recursos, la Alianza Singapore-MIT, la National Science Foundation, la Taiwan Semiconductor Manufacturing Company y Tokyo Electron.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

La terapia génica podría ser pronto aprobada en Europa

ADN
ADN

Europa se encuentra a un pequeño paso de aprobar la terapia génica, mediante la cual se altera el ADN de los pacientes con el fin de tratar enfermedades hereditarias que pasan de padre a hijo.

La Agencia Europea de Medicamentos recomendó el uso de un medicamento (Glybera) para el tratamiento de la deficiencia de lipoproteinlipasa, llamada también quilomicronemia, que hace que quienes la padecen no puedan digerir las grasas apropiadamente.

Una en un millón de personas sufre esta enfermedad, y lo que ocurre es que tienen copias dañadas de un gen esencial para romper la grasa. La única manera de controlar la quilomicronemia es llevando una dieta muy baja en grasas.

La terapia génica pretende que, si el problema está en una parte del código genético del paciente, entonces se reemplace esa parte del código, que en este caso sería lo más conveniente para aquellos que tienen pancreatitis aguda y no pueden controlar su condición mediante la dieta.

Sin embargo, la Comisión Europea está por tomar la decisión final, lo cual no es tan fácil si se toma en cuenta que la terapia resultó en muerte para un adolescente estadounidense, y en leucemia para otros individuos.

No hay terapias génicas disponibles fuera de un laboratorio de investigación en Europa o los Estados Unidos.

Referencia
http://www.bbc.co.uk/ (en inglés)