Nuevo material comparte muchas de las propiedades inusuales del grafeno

Materiales similares grafeno
Imagen: Dominick Reuter

Pequeños filmes de antimonio-bismuto tienen el potencial para nuevos chips semiconductores y dispositivos termoeléctricos.

David L. Chandler, MIT News Office. Original (en inglés)

El grafeno, una capa de carbono de un solo átomo de grueso, ha dado lugar a muchas investigaciones sobre sus propiedades únicas electrónicas, ópticas y mecánicas. Ahora, investigadores en el MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) han encontrado otro compuesto que comparte muchas de las características inusuales del grafeno – y en algunos casos tiene interesantes propiedades complementarias a este material tan discutido.

El material, un delgado filme de bismuto-antimonio, puede tener una variedad de diferentes características controlables, encontraron los investigadores, dependiendo de la temperatura ambiente y la presión, el grueso del material y la orientación de su crecimiento. La investigación, llevada a cabo por el candidato a doctorado de ciencia e ingeniería de materiales Shuang Tang y el profesor del instituto Mildred Dresselhaus, aparece en el diario Nano Letters.

Cómo el grafeno, el nuevo material tiene propiedades electrónicas que son conocidas como conos Dirac bidimensionales, un término que se refiere al trazado gráfico de energía con forma de cono contra la cantidad de movimiento para electrones moviéndose a través del material. Estas propiedades inusuales – que permiten a los electrones moverse de una manera diferente a la que es posible en la mayoría de los materiales – podría dar a los filmes de bismuto-antimonio propiedades que son altamente deseables para aplicaciones en la manufactura de chips electrónicos de próxima generación o en generadores y enfriadores termoeléctricos.

En dichos materiales, dice Tang, los electrones “pueden viajar como un rayo de luz”, potencialmente haciendo posibles nuevos chips con habilidades computacionales mucho más rápidas. El flujo de electrones podría ser en algunos casos cientos de veces más rápido que en chips convencionales de silicio, dice.

Similarmente, en una aplicación termoeléctrica – donde una diferencia de temperatura entre los dos lados de un dispositivo crea un flujo de corriente eléctrica – el movimiento mucho más rápido de electrones, junto con propiedades fuertes de aislamiento térmico, podrían permitir producción de energía mucho más eficiente. Esto podría probar ser útil en darle energía a satélites al explotar la diferencia de temperatura entre la luz solar y los lados oscuros, dice Tang.

Dichas aplicaciones siguen especulativas en este punto, dice Dresselhaus, por que se necesita más investigación para analizar propiedades adicionales y eventualmente para probar muestras del material. Este análisis inicial estuvo basado principalmente en modelado teórico de las propiedades del filme de bismuto-antimonio.

Hasta que este análisis sea llevado a cabo, dice Dresselhaus, “nunca pensamos en el bismuto” como teniendo el potencial para propiedades de cono de Dirac. Pero encuentros recientes inesperados involucrando una clase de materiales llamados aislantes topológicos sugirió otra cosa: Experimentos llevados a cabo por un colaborador Ucraniano sugirió que las propiedades del cono de Dirac podrían ser posibles en filmes de bismuto-antimonio.

Mientras que resulta que los delgados filmes de bismuto-antimonio pueden tener algunas propiedades similares a aquellas del grafeno, cambiando las condiciones también permite que una variedad de otras propiedades sean realizadas. Eso abre la posibilidad de diseñar dispositivos electrónicos hecho del mismo material con propiedades variantes, depositando una capa sobre la otra, en lugar de capas de diferentes materiales.

Las propiedades inusuales del material pueden variar de una dirección a otra: Electrones moviéndose en una dirección podrían seguir las leyes de la mecánica clásica, por ejemplo, mientras que aquellos moviéndose en una dirección perpendicular obedecen la física relativista. Esto podría permitir dispositivos que prueben la física relativista en una manera más barata y más simple que los sistemas existentes, dice Tang, aunque esto falta por probarse a través de experimentos.

“Nadie ha hecho ningún dispositivo todavía” del nuevo material, advierte Dresselhaus, pero añade que los principios son cercanos y los análisis necesarios deberían de tomar menos de un año en llevarse a cabo.

“Todo puede suceder, realmente no sabemos”, dice Dresselhaus. Dichos detalles quedan por ser subsanados, ella dice, añadiendo: “Muchos misterios quedan antes de que tengamos un dispositivo real”.

Joseph Heremans, un profesor de física en la Universidad Estatal de Ohio quien no estuvo involucrado en esta investigación, dice que mientras que algunas propiedades inusuales del bismuto se han conocido por un largo tiempo, “lo que es sorprendente es la riqueza de los sistemas calculados por Tang y Dresselhaus. La belleza de esta predicción es mejorada aún más por el hecho de que el sistema es bastante accesible experimentalmente”.

Heremans agrega que en investigaciones posteriores sobre las propiedades del material de bismuto-antimonio, “habrá dificultades, y algunas pocas ya son conocidas”, pero dice que las propiedades son lo suficientemente interesantes y prometedoras que “este artículo debe estimular un esfuerzo experimental más grande”.

El trabajo fue patrocinado con una beca de la Oficina de Investigación Científica de la Fuerza Aérea de los Estados Unidos.

Imagen: Shuang Tang / Profesora Mildred Dresselhaus.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Encontrando como funcionan los antibióticos

Antibióticos
Imagen: Christine Daniloff / iMol

Un equipo descubre el mecanismo que produce daño fatal al ADN en bacterias.

Anne Trafton, MIT News Office. Original (en inglés).

La penicilina y otros antibióticos han revolucionado la medicina, convirtiendo enfermedades que alguna vez fueron mortales en males fácilmente tratables. Sin embargo, mientras que los antibióticos han estado en uso por más de 70 años, el mecanismo exacto por medio del cual matan a las bacterias ha sido un misterio.

Ahora un nuevo estudio por investigadores del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) y la Universidad de Boston revelan el mecanismo de muerte detrás de las tres grandes clases de antibióticos: Las drogas producen moléculas destructivas que dañan fatalmente el ADN bacterial a través de una larga cadena de eventos celulares.

Entendiendo los detalles de este mecanismo podría ayudar a los científicos a mejorar drogas existentes, de acuerdo a los investigadores. Pocos antibióticos nuevos han sido desarrollados en los últimos 40 años, y muchas cepas de bacteria se han vuelto resistentes a las drogas ahora disponibles.

“Uno podría mejorar la eficacia de muerte de nuestro arsenal actual, reducir las dosis requeridas o volver a sensibilizar cepas a los antibióticos existentes”, dice James Collins, un profesor de Ingeniería Biomédica en la Universidad de Boston, quien colaboró con Graham Walker, profesor de Biología del MIT, en un estudio que apareció en la edición del 20 de abril de la revista Science.

El autor líder del artículo es James Foti, un posdoctorado en el laboratorio de Walker. Otros autores son el posdoctorado del MIT Babho Devadoss y Jonathan Winkler, un doctor recientemente graduado en el laboratorio de Collins.

Radicales destructivos

En el 2007, Collins mostró que tres clases de antibióticos – quinolonas, betalactámicos y aminoglucósidos – matan células produciendo moléculas altamente destructivas conocidas como radicales hidroxilos. En el momento, él y otros sospechaban que los radicales lanzaban un ataque general contra cualquier componente de la célula que encontraban.

“Reaccionan con casi todo”, dice Walker. “Irán tras los lípidos, pueden oxidar proteínas, pueden oxidar el ADN”. Sin embargo, la mayoría de este daño no es fatal, encontraron los investigadores en el nuevo estudio.

Lo que es mortal a las bacterias es el daño inducido por hidroxilo a la guanina, una de las cuatro bases nucleótidas que constituyen el ADN. Cuando este daño es insertado en el ADN, las células tratan de reparar el año pero terminan acelerando su propia muerte. Este proceso “no causa todas las muertes, pero causa una cantidad notable de ellas”, dice Walker, quien es profesor de la Sociedad Americana del Cáncer.

Los estudios de Walker de las enzimas reparadoras del ADN llevaron a los investigadores a sospechar que esta guanina dañada, conocida como guanina oxidada, podría jugar un papel en la muerte celular por medio de antibióticos. En la primer fase de su investigación, mostraron que una enzima especializada en el copiado de ADN llamada DinB – parte del sistema de una célula para lidiar con el daño al ADN – es muy buena utilizando el bloque de construcción de guanina oxidada para sintetizar ADN.

Sin embargo, DinB no solo inserta guanina oxidada opuesta a su compañera base correcta, citosina, en la hebra complementaria cuando se está copiando el ADN, sino que también la inserta con su compañera incorrecta, adenina. Los investigadores encontraron que, cuando se han incorporado demasiadas guaninas oxidadas en nuevas hebras de ADN, los esfuerzos inútiles de la célula para remover estas lesiones resultaron en la muerte.

Basado en estos estudios de reparación muy básica de ADN, Walker y sus colegas crearon la hipótesis de que los radicales hidroxilos producidos por los antibióticos podrían ser el inicio mismo de la cascada de daño al ADN. Esto resultó ser el caso.

Una vez que la guanina oxidada causada por el tratamiento con antibióticos es insertada en el ADN, un sistema celular diseñado para reparar el ADN es activado. Enzimas especializadas conocidas como MutY y MutM hacen cortes en el ADN para iniciar su proceso de reparación que normalmente ayuda a las células a lidiar con la presencia de guanina oxidada en su ADN. Sin embargo, esta reparación es arriesgada porque requiere abrir la doble hélice del ADN, cortando una de sus cadenas mientras que la base incorrecta es reemplazada. Si dos de estas reparaciones se llevan a cabo en estrecha proximidad a las hebras opuestas de ADN, el ADN sufre un rompimiento de doble hélice, lo que usualmente es fatal a la célula.

“Este sistema, que normalmente debe estar protegiéndote y manteniéndote muy preciso, se vuelve tu verdugo”, dice Walker.

Deborah Hung, una profesora de Microbiología e Inmunobiología en la Escuela Médica de Harvard, dice que el nuevo estudio representa “el próximo capítulo importante mientras que atravesamos un renacimiento de entendimiento sobre cómo funcionan los antibióticos. Solíamos pensar que sabíamos, y ahora nos damos cuenta de que todas nuestras suposiciones simples estaban equivocadas, y es mucho más complejo”, dice Hung, quien no fue parte de este estudio.

Nuevos objetivos

En algunos casos de daño al ADN inducido por antibióticos, la célula bacterial es capaz de salvarse a sí misma al reparar el rompimiento de doble hebra usando un proceso llamado recombinación homóloga. Desactivar las enzimas requeridas para la recombinación homóloga podría incrementar la sensibilidad de las bacterias a los antibióticos, dicen los investigadores.

“Nuestro trabajo sugiere que las proteínas involucradas en reparar las dobles-hebras rotas de ADN podrían ser objetivos interesantes detrás de los cuales ir como medio para afectar la eficacia de muertes de las drogas”, dice Collins.

Los investigadores, cuyo trabajo fue patrocinado por los Institutos Nacionales de Salud y el Instituto Médico Howard Hughes, también mostraron un mecanismo adicional que podría estar involucrado en las muertes de células causadas por uno de los tipos de antibióticos, aminoglucósidos: En células tratadas con estos antibióticos, la guanina oxidada es incorporada en el mensajero ARN, resultando en proteínas incorrectas que, a su vez, disparan más produción de radicales hidroxilos y así más guanina oxidada. Los investigadores trabajan ahora para avanzar aún más en su comprensión de cómo los antibióticos matan células.

Reimpreso con permiso de MIT News.

http://web.mit.edu/ (en inglés)

Nuevo estudio vincula la contaminación del aire y la muerte temprana en el Reino Unido

Polución
Imagen: Steven Barrett

Investigadores encuentran que el escape de autos causa más muertes prematuras que los accidentes de autos.

Jennifer Chu, MIT News Office. Original (en inglés).

En un estudio que aparecerá este mes en el diario Ciencia Ambiental y Tecnología, investigadores del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) reportan que las emisiones de autos, camiones, aviones y plantas de energía causan 13,000 muertes prematuras en el Reino Unido cada año.

Los investigadores analizaron datos del 2005, el año más reciente del cual la información se encuentra disponible. Encontraron que entre diversas fuentes de emisiones en el país, el escape de autos y camiones fue el más grande contribuyente a las muertes prematuras, afectando a alrededor de 3,000 personas por año. En comparación, notan los investigadores, menos de 3,000 británicos murieron en accidentes de camino en el año 2005.

Los investigadores encontraron que las emisiones originándose en otros lugares de Europa causan 6,000 muertes adicionales en el Reino Unido anualmente; las emisiones del Reino Unido que migran fueran del país, a su vez, causan 3,100 muertes prematuras por año en otras naciones de la Unión Europea. En algunas áreas en la periferia del Reino Unido – como al norte de Escocia – casi toda la contaminación del aire viene del resto de Europa, dicen los investigadores.

Steven Barrett del MIT y su coautor Steve Yim comenzaron el estudio a raíz de eventos recientes en el Reino Unido: Londres está actualmente en violación de los estándares de calidad del aire impuestos por la Unión Europea, y el gobierno británico podría enfrentar multas significativas de la Unión Europea si falla en abordar su contaminación del aire.

“Queríamos saber si la responsabilidad de mantener la calidad del aire era igualada por una habilidad de actuar o hacer algo al respecto”, dice Barrett, el profesor de Aeronáutica y Astronáutica en el MIT. “Los resultados del estudio indican que no hay una simetría ahí”.

Polvo en el viento

Barrett trabajó con el posdoctorado del MIT Steve Yim para analizar los datos de emisiones provistos por el gobierno británico. El equipo dividió las emisiones del país en sectores, incluyendo transporte por carreteras; generación de energía; fuentes comerciales, residenciales y agrícolas; y otros transportes como envíos y aviación.

El grupo simuló entonces los campos de temperatura y viento a través del país usando una investigación del clima y un modelo de predicciones similar a esos usados para predecir el clima a corto plazo. Barrett y Yim introdujeron los datos de emisiones en el modelo para ver cómo el clima podría dispersar las emisiones. Ejecutaron otra simulación – un modelo de transporte químico – para ver cómo las emisiones de los diferentes sectores interactuaron.

Finalmente, el grupo sobrepuso sus resultados de la simulación en mapas de densidad de población para ver que lugares tenían la mayor exposición a largo plazo a las emisiones de combustión. Barrett observó que la mayoría de las emisiones estudiadas estaban compuestas de partículas de menos de 2.5 micrones en diámetro, un tamaño que los epidemiólogos han asociado con la muerte prematura.

Panorama borroso

Después del transporte por carretera, los investigadores encontraron que las emisiones de envíos y aviación eran el segundo mayor contribuyente a las muertes prematuras, causando 1,800 muertes tempranas anualmente, seguido por emisiones de plantas de energía, que causan un estimado de 1,700 muertes prematuras cada año.

Barrett y Yim encontraron que las emisiones de plantas de energía tienen mayor impacto en la salud en el norte de Inglaterra, donde las emisiones de cinco plantas grandes tienden a congregarse. En Londres, los investigadores encontraron que las emisiones por envíos y aviación tenían un mayor impacto en la salud, posiblemente debido a la proximidad de grandes aeropuertos a la ciudad.

Emisiones de las plantas de energía del país, que están principalmente al norte de las ciudades más grandes y emiten la contaminación muy por arriba del nivel del suelo, son menos dañinas a la población general que otras fuentes de contaminación, dice Barrett. En contraste, dice que las emisiones de autos y camiones, que ocurren más de cerca a donde la gente vive y trabaja, poseen un riesgo más serio a la salud humana.

“La gente tiene un gran número de factores de riesgo en su vida”, dice Barrett. “La contaminación del aire es otro factor de riesgo. Y puede ser significativo, especialmente para la gente que vive en ciudades”.

Fintan Hurley, director científico del Instituto de Medicina Ocupacional en Edimburgo, Escocia, dice que los hallazgos del grupo proveen un análisis detallado de las fuentes de contaminación del aire en el país. Hurley lideró un estudio similar por el Comité sobre los Efectos Médicos de la Contaminación del Aire, y dice que los resultados de Barrett están en línea con ese análisis. Las implicaciones, añade, van más allá de la frontera de Inglaterra.

“Es de ayuda tener un análisis detallado de los efectos en el Reino Unido, pero la contaminación del aire en el exterior de fuentes de combustión es un importante problema mundial de salud pública”, dice Hurley. “Con la contaminación exterior del aire todos están expuestos, porque las finas partículas y gases también penetran los interiores. Es posible que los individuos hagan algunas cosas para limitar su exposición personal, pero la necesidad principal es actuar juntos para reducir las emisiones”.

El estudio fue patrocinado por el Consejo de Investigación de Ingeniería y Ciencias Físicas.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Nuevo recubrimiento para transplantes de cadera podría prevenir fallas prematuras

Implante huesos
Imagen: Hammond Lab

Filmes a nanoescala desarrollados en el MIT (Massachusetts Institute of technology – Instituto Tecnológico de Massachusetts) promueven el crecimiento de hueso, creando un sello más fuerte entre implantes y los propios huesos de los pacientes.

Anne Trafton, MIT News Office. Original (en inglés).

Cada año, más de un millón de estadounidenses reciben una prótesis artificial de cadera o rodilla. Dichos implantes están diseñados para durar muchos años, pero en alrededor del 17 por ciento de los pacientes que reciben un reemplazo de articulación, el implante eventualmente se afloja y tiene que ser reemplazado temprano, lo que puede causar peligrosas complicaciones para pacientes de edad avanzada.

Para ayudar a minimizar estas pesadas operaciones, un equipo de ingenieros químicos del MIT ha desarrollado un nuevo recubrimiento para implantes que podría ayudarlos a adherirse mejor al hueso del paciente, previniendo fallas prematuras.

“Esto permitiría al implante durar mucho más, hasta su tiempo de vida natural, con un riesgo más bajo de falla o infección”, dice Paula Hammond, profesora de ingeniería en el MIT y autora principal de un artículo sobre el trabajo que aparecerá en el diario Advanced Materials.

El recubrimiento, que induce las propias células del cuerpo a producir hueso que ajusta el implante en su lugar, también podría ser usado para curar fracturas y para mejorar los implantes dentales, de acuerdo a Hammond y al autor líder Nisarg Shah, un estudiante graduado en el laboratorio de Hammond.

Una alternativa al cemento óseo

Caderas artificiales consisten de una bola de metal en un tallo, conectando la pelvis y el femur. La bola rota dentro de una taza plástica dentro del socket de la cadera. Similarmente, las rodillas artificales consisten de placas y un tallo que permiten el movimiento del femur y la tibia. Para asegurar el implante, cirujanos usan cemento óseo, un polímero que se asemeja al vidrio cuando se endurece. En algunos casos, este cemento termina agrietándose y el implante se separa del hueso, causando dolor crónico y pérdida de movilidad para el paciente.

“Típicamente, en dicho caso, el implante es removido y reemplazado, lo que causa tremenda pérdida de tejido secundaria en el paciente que no habría ocurrido si el implante no hubiera fallado”, dice Shah. “Nuestra idea es prevenir la falla recubriendo estos implantes con materiales que podrían inducir el hueso natural que es generado dentro del cuerpo. Ese hueso crece en el implante y ayuda a mantenerlo en su lugar”.

El nuevo recubrimiento consiste de un filme muy delgado, que va desde los 100 nanómetros hasta un micrón, compuesto de capas de materiales que ayudan a promover el rápido crecimiento de hueso. Uno de los materiales, hidroxiapatita, es un componente natural del hueso, hecho de calcio y fosfato. Este material atrae células madre mesenquimatosas de la médula osea y provee una interfaz para la formación de nuevo hueso. La otra capa libera un factor de crecimiento que estimula las células madre mesenquimatosas a transformarse en células productoras de hueso llamadas osteoblastos.

Una vez que se forman los osteoblastos, comienzan a producir nuevo hueso para llenar los espacios rodeando el implante, asegurándolo al hueso existente y eliminando la necesidad del cemento de hueso. Tener tejido sano en ese espacio crea un enlace más fuerte y reduce bastante el riesgo de infección bacteriana alrededor del implante.

“Cuando el cemento óseo es usado, espacio muerto es creado entre el hueso existente y el tallo del implante, donde no hay vasos sanguíneos. Si bacterias colonizan este espacio se mantendrían proliferando, ya que el sistema inmune no puede alcanzarlas y destruirlas. Dicho recubrimiento sería auxiliar para prevenir que eso ocurra”, dice Shah.

Toma al menos dos o tres semanas para que los huesos llenen y completamente estabilicen el implante, pero un paciente aún sería capaz de caminar y hacer terapia física durante este tiempo, de acuerdo a los investigadores.

Control ajustable

Ha habido esfuerzos previos para recubrir implantes ortopédicos con hidroxiapatita, pero los filmes terminan siendo muy delgados e inestables, y tienden a separarse del implante, dice Shah. Otros investigadores han experimentado con inyectar el factor de crecimiento o depositarlo directamente en el implante, pero la mayoría termina siendo drenado fuera del sitio del implante, dejando muy poco detrás para tener algún efecto.

El equipo del MIT puede controlar el grosor de su filme y la cantidad de factor de crecimiento liberado usando un método llamado ensamblado capa-por-capa, en el que los componentes deseados son colocados una capa a la vez hasta que el grosor y la composición de la droga deseados son alcanzados.

“Esta es una ventaja significativa por que otros sistemas hasta ahora no han podido controlar la cantidad de factor de crecimiento que necesitas. Muchos dispositivos típicamente deben usar cantidades que podrían ser órdenes de magnitud más de lo que necesitas, lo que puede llevar a efectos secundarios no deseados”, dice Shah.

Los investigadores ahora están realizando estudios en animales que han mostrado resultados prometedores: Los recubrimientos llevan a una rápida formación de huesos, fijando los implantes en su lugar.

Este recubrimiento podría ser usado no solo para reemplazos de articulaciones, sino también para el fijado de placas y tornillos usados para arreglar fracturas de huesos. “Es muy versátil. Puedes aplicarlo a cualquier geometría y tener un recubrimiento uniforme todo alrededor”, dice Shah.

Otra posible aplicación es en implantes dentales. Convencionalmente, implantar un diente artificial es un proceso de dos pasos. Primero, un tornillo con rosca es introducido en la quijada; este tornillo debe estabilizarse integrándolo con el tejido de hueso que lo rodea por varios meses antes de que el paciente regrese a la clínica para tener el nuevo diente pegado al tornillo. Esto podría ser reducido a un proceso de un paso en el que el paciente recibe el implante entero usando una versión de estos recubrimientos.

La investigación fue patrocinada por Instituto Nacional del Envejecimiento, parte de los Institutos Nacionales de la Salud, y conducido por el Instituto David H. Koch para Investigación Integrativa del Cáncer con apoyo del Instituto para Nanotecnologías para Soldados en el MIT.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Sintiendo cuando el cerebro está bajo presión

Sensación en cerebro
Imagen: Lucien Monfils / wikipedia

Una nueva estrategia de monitoreo prescinde de la cirugía, podría ayudar a los médicos a tratar pacientes con lesiones en la cabeza.

Anne Trafton, MIT News Office. Original (en inglés).

Los tumores cerebrales y el trauma en la cabeza, incluyendo conmociones, pueden elevar la presión dentro del cráneo, potencialmente aplastando el tejido cerebral o cortando el suministro de sangre del cerebro. Monitorear la presión sanguínea en los cerebros de dichos pacientes podría ayudar a los doctores a determinar el mejor tratamiento, pero el procedimiento es tan invasivo – requiere taladrar un agujero a través del cráneo – que solo se hace en los pacientes con lesiones más severas.

Eso podría cambiar con el desarrollo de una nueva técnica que es mucho menos arriesgada. El método, descrito en la edición del 11 de abril de Science Translational Medicine, podría permitirle a los médicos medir la presión cerebral en pacientes que han sufrido lesiones en la cabeza que son más leves, pero se beneficiarían de monitoreo cercano.

Desarrollado por investigadores en el Laboratorio de Investigación de Electrónica (RLE – Research Laboratory of Electronics) del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts), la nueva técnica está basada en un modelo computacional de cómo la sangre fluye a través del cerebro. Usando ese modelo, los investigadores pueden calcular la presión cerebral de dos mediciones menos invasivas: la presión sanguínea arterial y una medición ultrasónica de la velocidad del fluido sanguíneo a través del cerebro.

Con este acercamiento, cambios en la presión cerebral pueden ser monitoreados en el tiempo, alertando a los médicos sobre problemas que podrían crecer lentamente.

Bajo presión

Presión en el cerebro, también conocida como presión intracraneal (ICP – intracranial pressure), puede elevarse debido a la presencia de fluido excesivo (sangre o fluido cerebroespinal), un tumor cerebral o hinchazón del cerebro.

Para medir esta presión, neurocirujanos taladran un agujero en el cráneo e insertan un catéter en el tejido cerebral o una cavidad llena de fluido en el cerebro. En todos excepto los pacientes enfermos más críticamente, el riesgo de infección o daño al cerebro supera los beneficios de este procedimiento, dice el coautor del estudio George Verghese, profesor de Ingeniería Eléctrica en el MIT.

“Hay una cantidad de pacientes mucho mayor para quienes a los médicos les gustaría esta medición, pero lo invasivo los detiene de obtenerla”, dice Verghese, cuyo laboratorio se enfoca en usar modelos computarizados de fisiología humana para interpretar los datos de pacientes.

En esta tesis doctoral, Faisal Kashif, quien ahora es un posdoctorado en el laboratorio de Verghese y el autor principal del artículo, desarrolló un modelo por computadora que relaciona la presión sanguínea arterial y el flujo sanguíneo a través del cerebro a la presión en el cerebro. El flujo de sangre a través del cerebro es causado por la diferencia en presión entre la sangre entrando al cerebro y la presión dentro del cerebro (ICP). Por lo tanto, usando el modelo de Kashif, la ICP puede ser calculada del flujo y la presión sanguínea entrando al cerebro.

La presión de la sangre entrando al cerebro no es medible directamente, entonces el equipo del MIT usó la presión de la arteria radial, tomada al insertar un catéter en la muñeca, como una representación de esa medida. Usaron su modelo de flujo sanguíneo para compensar la diferencia en lugar.

La presión arterial periférica también puede ser medida continuamente y de manera no invasiva usando un dedal similar al brazalete que se utiliza comúnmente para medir la presión sanguínea. Los investigadores se encuentran investigando ahora, si los datos obtenidos de esta manera son lo suficientemente precisos para usarlos en su modelo.

Validación

Los investigadores verificaron la precisión de su técnica usando datos recolectados hace varios años por el colaborador Marek Czosnyka en la Universidad de Cambridge en el Reino Unido, de pacientes con lesión cerebral traumática. Este fue uno de los pocos grupos de datos que incluyeron todas las medidas que necesitaban, junto con un registro temporal apropiado. Czosnyka envió los datos de presión sanguínea arterial radial y la velocidad del flujo sanguíneo tomado con ultrasonido al equipo del MIT, el cual entonces introdujo los números en su modelo y obtuvieron una presión intracraneal estimada. Enviaron entonces los datos de vuelta a Czosnyka para comparación.

Sus resultados eran ligeramente menos precisos que aquellos obtenidos con el mejor procedimiento invasivo, pero comparables a otros procedimientos invasivos que siguen en uso clínico, y a técnicas menos invasivas que se han intentado.

“Es un santo grial de neurocirugía clínica el encontrar una manera no invasiva de medir la presión”, dice James Holsapple, jefe de neurocirugía en el Centro Médico Boston. “Sería un gran paso si podemos poner nuestras manos en algo confiable”.

El nuevo acercamiento del MIT muestra promesa, dice Holsapple, añadiendo que un siguiente paso importante es incorporar la tecnología en un sistema que sería fácil de usar para el personal de un hospital y pudiera grabar datos durante muchas horas o días.

El equipo del MIT, junto con la coautora Vera Novak del Centro Médico Beth Israel Deaconess (BIDMC) en Boston, está ahora colaborando con doctores en el BIDMC para probar su acercamiento en pacientes en la unidad de cuidado intensivo neurológico.

“Todavía es un período de validación. Para convencer a la gente de que esto trabaja, necesitas acumular más [datos] de los que tenemos actualmente”, dice Verghese. “Nuestra esperanza es que una vez que ha sido validado en tipos de pacientes adicionales, donde seas capaz de mostrar que puedes coincidir con la medida invasiva, la gente tendrá confianza en comenzar a aplicarlo a pacientes que no están siendo monitoreados actualmente. Ahí es donde vemos el gran potencial”.

Thomas Heldt, un científico investigador en el RLE y autor principal del artículo, dice que una vez que la recolección de datos y el modelo estén bien establecidos, el equipo espera probar diferentes poblaciones de pacientes – como atletas con contusiones, o soldados que han experimentado explosiones – para descubrir maneras de determinar la extensión de las lesiones y cuándo no es seguro todavía para un atleta o soldado volver al campo.

Otra aplicación potencial es monitorear astronautas durante y después de vuelos espaciales largos. La NASA ha observado signos de presión intracraneal elevada en algunos de estos astronautas, y ahora busca formas de medirla.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Nanopartículas híbridas cobre-oro convierten el CO2

Cobre oro CO2
Imagen: Zhichuan Xu

Podrían reducir las emisiones de gases de invernadero

Jennifer Chu, MIT News Office. Original (en inglés).

Cobre – el material del que están hechos los centavos y las teteras – también es uno de los pocos metales que pueden convertir el dióxido de carbono en combustibles de hidrocarbono con poca energía relativamente. Cuando se le da la forma de un electrodo y es estimulado con voltaje, el cobre actúa como un fuerte catalizador, iniciando una reacción electromagnética con el dióxido de carbono que reduce el gas de efecto invernadero en metano o metanol.

Varios investigadores alrededor del mundo han estudiando el potencial del cobre como medio energéticamente eficiente de reciclar emisiones de dióxido de carbono en plantas de energía: En lugar de ser liberado en la atmósfera, el dióxido de carbono sería hecho circular a través de un catalizador de cobre y convertido en metano o metanol – que entonces le daría energía al resto de la planta por combustión, o sería convertido en productos químicos como etileno. Dicho sistema, emparejado con energía solar o eólica, podría reducir enormemente las emisiones de gas de invernadero de plantas alimentadas por carbón y plantas alimentadas por gas natural.

Pero el cobre es temperamental: fácilmente oxidable, como cuando viejos centavos se vuelven verdes. Como resultado, el metal es inestable, lo que puede alentar significativamente su reacción con el dióxido de carbono y producir residuos no deseados como monóxido de carbono y ácido fórmico.

Ahora los investigadores del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) han encontrado una solución que podría reducir aún más la energía necesaria para que el cobre convierta el dióxido de carbono, mientras además hacen al metal mucho más estable. El grupo ha diseñado pequeñas nanopartículas de cobre mezcladas con oro, que es resistente a la corrosión y la oxidación. Los investigadores observaron que solo un toque de oro vuelve al cobre mucho más estable. En los experimentos, recubrieron electrodos con las nanopartículas híbridas y encontraron que mucha menos energía era necesaria para que estas nanopartículas diseñadas reaccionaran con el dióxido de carbono, comparado a nanopartículas de puro cobre.

Un artículo detallando los resultados aparecerá en el diario Chemical Communications; la investigación fue patrocinada por la Fundación Nacional de Ciencia. La coautora Kimberly Hamad-Schifferli del MIT dice que los descubrimientos apuntan a un medio potencialmente de eficiencia energética de recudir las emisiones de dióxido de carbono de las plantas de energía.

“Normalmente tienes que poner mucha energía en convertir dióxido de carbono en algo útil”, dice Hamad-Schifferli, una profesora asociada de ingeniería mecánica e ingeniería biológica. “Demostramos que nanopartículas híbridas cobre-oro son mucho más estables, y tienen el potencial de reducir la energía que necesitas para la reacción”.

Reduciendo el tamaño

El equipo eligió diseñar partículas al nivel de nanoescala para “obtener más ventaja económica”, dice Hamad-Schifferli: Mientras más pequeñas las partículas, más grande es el área superficial disponible para la interacción con las moléculas de dióxido de carbono. “Podrías tener más lugares para que el CO2 llegue y se pegue y sea convertido en algo más”, dice ella.

Hamad-Schifferli trabajó con Yang Shao-Horn, el profesor asociado de Ingeniería Mecánica en el MIT, posdoctorado Zhichuan Xu y Erica Lai. El equipo se quedó en oro como un metal adecuado para combinarse con oro y cobre principalmente debido a sus propiedades conocidas.
(Investigadores habían combinado previamente oro y cobre en escalas mucho más grandes, notando que la combinación previno que el cobre se oxidara).

Para hacer las nanopartículas, Hamad-Schifferli y sus colegas mezclaron sales conteniendo oro en una solución de sales de cobre. Calentaron la solución, creando nanopartículas que fusionaron cobre con oro. Xu entonces puso las nanopartículas a través de una serie de reacciones, convirtiendo la solución en un polvo que fue usado para recubrir un pequeño electrodo.

Para probar la reactividad de las nanopartículas, Xu colocó el electrodo en un vaso de precipitado lleno se solución y dióxido de carbono en burbujas dentro de él. Aplicó un pequeño voltaje al electrodo, y midió la corriente resultante en la solución. El equipo razonó que la corriente resultante indicaría que tan eficientes eran las nanopartículas al reaccionar con el gas: Si las moléculas de CO2 estuvieran reaccionando con sitios en el electrodo – y después liberando para permitir que otras moléculas de CO2 reaccionen con los mismos sitios – la corriente aparecería como que un cierto potencial fue alcanzado, indicando una “rotación”. Si las moleculas monopolizan sitios en el electrodo, la reacción se alentaría, retrasando la aparición de la corriente al mismo potencial.

El equipo encontró finalmente que el potencial aplicado para alcanzar una corriente estable era mucho más pequeña para las nanopartículas híbridas cobre-oro que para el puro cobre y oro – una indicación de que la cantidad de energía requerida para ejecutar la reacción era mucho más baja que la requerida cuando se usaban nanopartículas de puro cobre.

Siguiendo adelante, Hamad-Schifferli dice que espera mirar más de cerca la estructura de las nanopartículas de cobre-oro para encontrar la configuración óptima para convertir dióxido de carbono. Hasta ahora, el equipo ha demostrado la efectividad de las nanopartículas compuestas de un tercio de oro y dos tercios de cobre, así como dos tercios de oro y un tercio de cobre.

Hamad-Schifferli admite que el recubrimiento de electrodos a escala industrial con oro puede volverse caro. Sin embargo, dice ella, el ahorro de energía y el potencial de reuso para dichos electrodos podría balancear los costos iniciales.

“Es un compromiso”, dice Hamad-Schifferli. “Obviamente el oro es mas caro que el cobre. Pero si te ayuda a obtener un producto que sea más atractivo como el metano en lugar del dióxido de carbono, y a un consumo de energía más bajo, entonces podría valer la pena. Si pudieras reusarlo una y otra vez, y la durabilidad es más alta debido al oro, eso es una ganancia”.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Océanos aparte

Océano aparte
Imagen: Johan Lissenberg, Christopher MacLeod and the JC21 Scientific Party

Nueva investigación sugiere que la formación de la corteza oceánica es un proceso dinámico

Jennifer Chu, MIT News Office. Original (en inglés).

Tres quintos de la corteza de la tierra se encuentra bajo el agua, esparcida por el lecho marino. Más que cuatro millas cúbicas de corteza oceánica se forma cada año, regenerándose constantemente como una nueva piel a través del planeta. Esta corteza oceánica se eleva por las crestas del océano medio – cordilleras montañosas submarinas que ondulan por el suelo oceánico como cicatrices dentadas.

Estas crestas delinean los bordes de las placas tectónicas, que lentamente se desplazan alrededor del planeta. Conforme las placas se separan, el magma desde el manto subyacente hace erupción en la superficie, solidificándose eventualmente como nueva corteza. Con el tiempo, ésta nueva forma de corteza se mueve con la migración de la placa cerca de la cordillera oceánica, dejando espacio para que la corteza más reciente tome su lugar. La velocidad de la formación de la corteza varía de cresta a cresta: algunas cordilleras de rápida propagación producen hasta seis pulgadas de corteza nueva por año, mientras que la corteza de crestas de propagación se arrastra a lo largo a solo dos pulgadas por año.

Mientras que el proceso general de la formación de crestas oceánicas – también conocido como expansión del fondo marino – es bien entendido, no está claro lo que sucede en el volátil ambiente de aguas profundas que producen nueva corteza. Matthew Rioux, un científico investigador en el Departamento de las Ciencias de la Tierra, Atmosféricas y Planetarias (EAPS – Earth, Atmospheric and Planetary Sciences) en el MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts), describe el entorno en una cresta en medio del océano como una indecifrable “Zona de puré” (mush zone): parte de magma líquido, parte de roca cristalizada. Entendiendo cómo se comporta esta zona puede dar a los científicos una mejor idea de cómo rapidamente se forma una corteza oceánica.

Ahora, en un artículo publicado en la edición de Nature Geoscience, Rioux y sus colegas han encontrado que la formación de corteza oceánica puede ser más lenta y el proceso más dinámico de lo que se pensaba anteriormente.

Rioux trabajó con Sam Bowring, un profesor de Geología en MIT, y el postdoctorado Noah McLean – junto con investigadores de la Universidad de Hawaii, La Universidad de Cardiff en el Reino Unido y el Instituto Oceanográfico Woods Hole – para analizar fragmentos de la corteza desde el East Pacific Rise, una cordillera en medio del océano a 1,200 millas de la costa oeste de América del Sur que es una de las cordilleras de propagación más rápidas del mundo. Los científicos han pensado que los magmas que forman la corteza nueva en cordilleras de propagación rápida se levantan desde las profundidades, cristalizando rápidamente y entonces empujan lejos de la cordillera para formar un nuevo suelo oceánico.

Para probar esta teoría, Rioux y sus colegas analizaron fragmentos de corteza recuperada de los afloramienros en dos localidades en el East Pacific Rise y determinaron la edad de partes diferentes de cada roca. Ellos razonaron que si existen teorías que eran correctas y crestas de rápida propagación producen una nueva corteza, cada parte de una roca podría ser de una edad similar – habiendo cristalizado mas o menos simultáneamente.

Sin embargo, el equipo encontró todo lo contrario. Dentro de cada roca, los investigadores buscaron trazas de circón, un mineral que se utiliza a menudo para determinar la edad de una roca. Cuando el circón cristaliza, absorbe uranio, que lentamente decae en plomo. La medición de la proporción de uranio al plomo da a los científicos una estimación precisa de la edad de las rocas.

Para aislar circón, el equipo tritura la roca hasta volverla polvo, después se separa circón en base a su densidad y propiedades magnéticas. Los investigadores determinaron entonces la fecha de cada grano de circón, y encontraron un resultado sorpresivo: Dos de cuatro muestras de roca contenían circón con una amplia gama de edades, significando que diferentes partes de la roca cristalizaron, o se convirtieron en nueva corteza, en épocas diferentes.

Rioux dice que puede haber varias explicaciones para los hallazgos. Por ejemplo, la “zona de puré” en la cresta del océano medio puede ser “recargada” por nuevo magma saliendo del manto – conforme la nueva corteza comienza a solidificarse, el magma lo recalienta, volviendo partes líquido de nuevo que se endurece de nuevo más tarde. Otra explicación podría ser que el magma “se inmiscuye” en roca que cristalizó hace mucho tiempo. El circón existente en la roca, resistente a fundirse, quedaría igual mientras que el nuevo magma se solidifica en circón más joven.

Dichos escenarios no serían esperados con crestas que se esparcen despacio, donde la nueva corteza tiene más tiempo de interactuar con magmas calientes líquidos. En contraste, crestas que se esparcen rápidamente empujan la corteza rápidamente, y teóricamente los magmas no tendrían mucho tiempo de volver a fundirse en una roca. Los resultados, dice Rioux, sugieren que la formación de corteza oceánica toma mucho más tiempo en las crestas que se esparcen rápidamente de lo que los científicos habían esperado.

Jonathan Snow, un profesor asistente de Ciencias de la Tierra y Atmosféricas en la Universidad de Houston, dice que a la luz de sus resultados, las técnicas de estimación de edad de los investigadores podrían ser aplicadas en el futuro para investigar otras crestas del océano medio en el mundo.

“Alcanzaron el resultado muy sorprendente de que el enfriamiento del magma era un asunto mucho más prolongado de lo que habían predicho,” dice Snow. “Es una buena ‘primera vez’ para una nueva generación de técnicas radiométricas aplicadas al fondo del océano.

“Es un paso adelante en nuestro entendimiento de como estas crestas funcionan,” dice Rioux. “Estimar la edad de la corteza oceánica nos permitirá entender mejor que tanta variación hay entre las diferentes crestas del océano medio, como estas variaciones se relacionan al acomodo tectónico, y últimadamente lo que los datos nos digan sobre los procesos magmáticos durante la formación de una gran fracción de la corteza terrestre.”

La investigación fue patrocinada por la Fundación Nacional de Ciencia y el Consejo de Investigación del Entorno Natural.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Nuevo método para prevenir obstrucciones submarinas de hielo

Hidrato de metano
Imagen: Wuse 1007 / wikipedia

Revestimientos superficiales desarrollados por investigadores del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) podrían inhibir la acumulación de hidratos de metano que pueden bloquear pozos profundos de petróleo y gas.

David L. Chandler, MIT News Office. Original (en inglés).

Durante el derrame petrolero masivo del pozo roto Deepwater Horizon en el 2010, parecía al principio que podría haber un arreglo rápido: un domo de contención que se bajara a la tubería rota para capturar el flujo para que pudiera ser bombeado a la superficie y eliminado apropiadamente. Pero ese intento falló rápidamente, porque el domo casi instantáneamente se obstruyó con hidrato de metano congelado.

Los hidratos de metano, que se congelan al contacto con agua fría en lo profundo del océano, son un problema crónico para los pozos de petróleo y gas profundos. Algunas veces estos hidratos congelados se forman dentro de la cubierta del pozo, donde pueden restringir e incluso bloquear el flujo, con un costo enorme para los operadores del pozo.

Ahora investigadores del MIT, liderados por el profesor asociado de Ingeniería Mecánica Kripa Varanasi, dicen que han encontrado una solución, descrita recientemente en el diario Physical Chemistry Chemical Physics. El autor líder de la revista académica es J. David Smith, un estudiante graduado de ingeniería mecánica.

El océano profundo se está convirtiendo en “una fuente clave” de nuevos pozos de petróleo y gas, dice Varanasi, conforme las demandas de energía del mundo continúan incrementándose rápidamente. Pero uno de los problemas cruciales en hacer viables estos pozos profundos respecto a la “garantía de flujo”: encontrar maneras de evitar la acumulación de hidratos de metano. Presentemente, esto se hace principalmente mediante el uso de sistemas de calefacción caros o aditivos químicos.

“Las industrias de petróleo y gas actualmente gastan al menos $200 millones de dólares al año solo en químicos” para prevenir dichas acumulaciones, dice Varanasi; fuentes de la industria dicen que la cifra total por la prevención y la producción perdida debido a hidratos podría estar en los miles de millones de dólares. El nuevo método de su equipo usaría en su lugar recubrimientos pasivos en los interiores de las tuberías que están diseñados para prevenir que los hidratos se adhieran.

Estos hidratos forman una estructura cristalina similar a una caja, llamada clatrato, en la que moléculas de metano son atrapadas en retículos de moléculas de agua. Aunque se ven como hielo ordinario, los hidratos de metano se forman solo bajo el agua a alta presión: en las aguas profundas o debajo del lecho oceánico, dice Smith. Según algunos estimados, la cantidad total de metano (el ingrediente principal del gas natural) contenido en los clatratos del lecho marino mundial exceden por mucho la cantidad conocida de reservas de todos los otros combustibles fósiles combinados.

Dentro de las tuberías que cargan el aceite o el gas de las profundidades, los hidratos de metano pueden adherirse a las paredes internas – como la placa que se acumula dentro de las arterias del cuerpo – y, en algunos casos, eventualmente bloquear el flujo completamente. Los bloqueos pueden suceder sin advertencia, y en casos severos requieren que la sección bloqueada de la tubería sea cortada y reemplazada, resultando en largos apagones de producción. Los esfuerzos de prevención presentes incluyen calefacción clara o aislamiento de las tuberías o aditivos como metanol introducidos en el flujo de gas o petróleo. “El metanol en un buen inhibidor”, dice Varanasi, pero es “muy agresivo ambientalmente” si escapa.

El grupo de investigación de Varanasi comenzó a analizar el problema antes del derrame del Deepwater Horizon en el Golfo de México. El grupo se ha enfocado por mucho tiempo en maneras de prevenir la acumulación de hielo ordinario – como en las alas de un avión – y en la creación de superficies hidrofóbicas, que previenen que las gotas de agua se adhieran a una superficie. Entonces Varanasi decidió explorar el potencial para crear lo que el llama superficies “hidrato-fóbicas” para prevenir que los hidratos se adhieran duramente a las paredes de las tuberías. Debido a que los mismos hidratos de metano son peligrosos, los investigadores trabajaron casi exclusivamente con un modelo de sistema de hidrato clatrato que exhibe propiedades similares.

El estudio produjo varios resultados significativos: Primero, utilizando un recubrimiento simple, Varanasi y sus colegas fueron capaces de reducir la adhesión de hidratos en la tubería a un cuarto de la cantidad en superficies no tratadas. Segundo, el sistema de pruebas que diseñaron provee una manera siemple y barata de buscar inhibidores aún más efectivos. Finalmente, los investigadores también encontraron una fuerte correlación entre las propiedades “hidrato-fóbicas” de una superficie y su humectabilidad – una medición de qué tan bien el líquido se esparce en la superficie.

Los encuentros básicos también aplican a otros adhesivos sólidos, dice Varanasi – por ejemplo, soldadura adhiriéndose a un circuito, o depósitos de calcita dentro de líneas de plomería – así que los mismos métodos de prueba pueden ser usados para analizar recubrimientos para una amplia variedad de procesos comerciales e industriales.

Richard Camilli, un científico asociado en Física Oceánica Aplicada e Ingeniería en la Institución Oceanográfica Woods Hole quien no estuvo involucrado en este estudio, dice, “La industria de la energía ha estado luchando con problemas de seguridad y garantía de flujo relacionados con la formación de hidratos y bloqueos por casi un siglo”. Añade que el problema se está volviendo más significativo mientras que el taladrado progresa a aguas aún más profundas y dice que el trabajo del equipo de Varanasi “es un gran paso hacia encontrar formas más amigables ambientalmente para prevenir la obstrucción de hidrato en las tuberías”.

El equipo investigador incluyó al postdoctorado del MIT Adam Meuler y al estudiante Harrison Bralower; al profesor de Ingeniería Mecánica Gareth McKinley; al profesor de Ingeniería Química Robert Cohen; y a Silva Subramanian y Rama Venkatesan, dos investigadores de la Compañía Tecnológica Chevron Energy. El trabajo fue patrocinado por el programa Iniciativa de Energía Chevron del MIT y por el consejo Doherty en Utilización Oceánica de Varanasi.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Mini-Internet dentro de chips

Mini-Internet en chip
Imagen: Christine Daniloff

Las técnicas de enrutamiento en las que se basa el Internet podrían incrementar la eficiencia de chips de múltiples núcleos mientras que reducen sus requerimientos de consumo de energía.

Larry Hardesty, MIT News Office. Original (en inglés).

Los chips de computadora han dejado de volverse más rápidos. Para seguir aumentando el poder computacional de los chips a la misma tasa a la que nos hemos acostumbrado, los fabricantes de chips están dándoles “nucleos”, o unidades de procesamiento, adicionales en su lugar.

Hoy, un chip típico puede tener seis u ocho núcleos, todos comunicados uno con el otro sobre un solo grupo de cables, llamado un bus (o canal). Con un bus, sin embargo, solo un par de núcleos puede hablar a la vez, lo que sería una seria limitación en chips con cientos o incluso miles de núcleos, lo que muchos ingenieros eléctricos predicen como el futuro de la computación.

Li-Shiuan Peh, una profesora asociada de Ingeniería Eléctrica y Ciencia Computacional en el MIT, quiere que los núcleos se comuniquen de la misma manera que computadoras conectadas a Internet lo hacen: agrupando la información que transmiten en “paquetes”. Cada núcleo tendría su propio ruteador, que podría enviar un paquete por varios caminos, dependiendo de la condición de la red entera.

En la conferencia Design Automation en junio, Peh y sus colegas presentarán una revista académica que ella describe como “resumiendo 10 años de investigación” en dichas “redes en un chip”. No solo los investigadores establecen los límites teóricos en la eficiencia de redes de comunicación en chips basadas en paquetes, sino que también presentan medidas realizadas en un chip de prueba en el que se acercaron a alcanzar varios de esos límites.

La última parada para los buses

En principio, chips con múltiples núcleos son más rápidos que chips de un solo núcleo por que pueden dividir tareas computacionales y ejecutar varias de ellas a la vez. Núcleos trabajando en la misma tarea ocasionalmente necesitarán compartir datos, pero hasta recientemente, el conteo de núcleos en chips comerciales ha sido lo suficientemente bajo que un solo bus ha sido capaz de manejar la carga de comunicaciones extras. Sin embargo, eso ya está cambiando: “Los buses han alcanzado un límite”, dice Peh. “Tipicamente escalan a alrededor de ocho núcleos”. Los chips de 10 núcleos encontrados en los servidores de alto rendimiento frecuentemente agregan un segundo bus, pero ese acercamiento no funcionará para chips con cientos de núcleos.

Uno de los problemas es que, dice Peh, “los buses requieren mucha energía, por que están tratando de manejar largos cables a ocho o 10 núcleos a la vez”. En el tipo de red que Peh está proponiendo, por otro lado, cada núcleo se comunica solo con los cuatro núcleos adyacentes a él. “Aquí, estás manejando segmentos de cables más cortos, así que eso te permite usar un voltaje más bajo”, ella explica.

En una red-en-un-chip, sin embargo, un paquete de datos viajando de un núcleo al otro tiene que detenerse en cada ruteador en el medio. Además, si dos paquetes llegan al ruteador al mismo tiempo, uno de ellos debe ser almacenado en memoria mientras que el ruteador maneja el otro. Muchos ingenieros, dice Peh, se preocupan de que estos requerimientos extras introducirán los suficientes retrasos y complejidad computacional para contrarrestar los beneficios de la conmutación de paquetes. “El problema más grande, pienso, es que en la industria justo ahora, la gente no sabe como construir estas redes, porque han sido buses por décadas”, dice Peh.

Pensando a futuro

Peh y sus colegas han desarrollado dos técnicas para hacer frente a estas preocupaciones. Una es algo que ellos llaman “evitado virtual”. En Internet, cuando un paquete llega a un ruteador, el ruteador inspecciona su información de direccionamiento antes de decidir por que camino enviarlo. Con un evitado virtual, sin embargo, cada router envía una señal previa al siguiente, para que pueda preajustar el cambio, aumentando el paquete sin ninguna computación adicional. En su grupo de chips de prueba, dice Peh, el evitado virtual permitió un acercamiento muy cerrado a la máxima tasa de transmisión predecida por análisis teórico.

La otra técnica es algo llamado señalización de baja oscilación. Los datos digitales consisten de unos y ceros, que son transmitidos por canales de comunicaciones como voltajes altos y bajos. Sunghyun Par, un estudiante de doctorado aconsejado por Peh y Anantha Chandrakasan, profesor de Ingeniería Eléctrica, desarrolló un circuito que reduce la oscilación entre los voltajes altos y bajos de un voltio a 300 milivoltios. Con su combinación de evitado virtual y señalización de baja oscilación, el chip de prueba de los investigadores consumió 38 por ciento menos energía que chips de ruteo de prueba anteriores. Los investigadores tienen más trabajo por hacer, dice Peh, antes de que el consumo de energía de sus chips de prueba se acerquen tanto a su límite teórico como lo hace la tasa de transmisión de datos. Pero, ella agrega, “si lo comparamos contra un bus, tenemos ahorros de órdenes de magnitud”.

Luca Carloni, un profesor asociado de Ciencia Computacional en la Universidad de Columbia quien también investiga redes en chips, dice “el jurado siempre está afuera” en el futuro del diseño de chips, pero que “las ventajas de redes de intercambio de paquetes en chips se ven atractivas”. Él enfatiza que esas ventajas incluyen no solo la eficiencia operacional de los mismos chips, sino también “un nivel de regularidad y productividad al momento de diseñarlos que es muy importante”. Y dentro del campo, añade, “las contribuciones de Li-Shiuan son fundamentales”.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Nanopartículas dirigidas muestran éxito en pruebas clínicas

Nanopartículas dirigidas
Imagen: Digizyme.Inc

Pequeñas partículas diseñadas para quedarse en células cancerosas logran reducir tumores con dosis más bajas que la quimioterapia tradicional.

Anne Trafton, MIT News Office. Original (en inglés).

Nanopartículas terapéuticas dirigidas que se acumulan en tumores mientras que pasan de lado células saludables han mostrado resultados prometedores en una prueba clínica que se está llevando a cabo, de acuerdo a una nueva revista académica.

Las nanopartículas tienen una molécula mensajera que les permite atacar específicamente células cancerosas, y son las primeras de dichas partículas dirigidas en entrar a estudios clínicos humanos. Originalmente desarrolladas por investigadores en el MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) y el Hospital Brigham and Women en Boston, las partículas están diseñadas para cargar la droga de quimioterapia docetaxel, usada para tratar cánceres de pulmón, próstata y mama, entre otros.

En el estudio, que aparece en la edición del 4 de abril del diario Science Translational Medicine, los investigadores demuestran la habilidad de las partículas para dirigirse a un receptor encontrado en células cancerosas y acumularse en los sitios de tumores. Las partículas también se mostraron seguras y efectivas: muchos de los tumores de pacientes se encogieron como resultado del tratamiento, aún cuando recibieron dosis más bajas que las usualmente administradas.

“Los resultados clínicos iniciales de regresión de tumores incluso con dosis bajas de la droga validan nuestros descubrimientos pre-clínicos de que nanopartículas dirigidas se acumulan preferencialmente en tumores”, dice Robert Langer, profesor del Departamento de Ingeniería Química del Instituto David H. Koch en el MIT y un autor principal de la revista académica. “Intentos previos de desarrollar nanopartículas dirigidas no se han trasladado exitosamente a estudios clínicos humanos por la dificultad inherente de diseñar y escalar una partícula capaz de dirigirse a tumores, evadiendo el sistema inmune y liberando drogas en una forma controlada”.

La prueba clínica fase 1 fue realizada por investigadores en BIND Biosciences, una compañía cofundada por Langer y Omid Farokhzad en el 2007.

“Este estudio demuestra por primera vez que es posible generar medicinas con propiedades dirigidas y programables que pueden concentrar los efectos terapéuticos directamente en el sitio de la enfermedad, potencialmente revolucionando cómo enfermedades complejas como el cáncer son tratadas”, dice Farokhzad, director del Laboratorio de Nanomedicina y Biomateriales en el hospital Brigham and Women, profesor asociado de anestesia en la Escuela de Medicina de Harvard y un autor principal de la revista académica.

Investigadores en el Instituto del Cáncer Dana-Farber, el Colegio Médico Weill Cornell, Servicios de Investigación Clínica TGen en Phoenix y el Institudo del Cáncer Karmanos en Detroit también estuvieron involucrados en el estudio.

Partículas dirigidas

El laboratorio de Langer comenzó a trabajar en nanopartículas poliméricas a inicios de los 90, desarrollando partículas hechas de materiales biodegradables. A principios de esta década, Langer y Farokhzad comenzaron a colaborar para desarrollar métodos para dirigir activamente las partículas a moléculas encontradas en células cancerosas. Para el 2006, ya habían demostrado que las nanopartículas dirigidas pueden encoger tumores en ratones, pavimentando el camino para el desarrollo eventual y la evaluación de una nanopartícula dirigida llamada BIND-014, que entró en pruebas clínicas en enero del 2011.

Para este estudio, los investigadores recubrieron las nanopartículas con moléculas direccionadoras que reconocen una proteína llamada PSMA (prostate-specific membrane antigen – antígeno membranal específico de la próstata), encontrado abundantemente en la superficie de la mayoría de las células de tumores de la próstata así como muchos otros tipos de tumores.

Uno de los desafíos desarrollando nanoparticulas de entrega de drogas efectivas, dice Langer, las está diseñando para que puedan realizar dos funciones críticas: evadir la respuesta inmunitaria normal del cuerpo y alcanzar sus objetivos deseados.

“Necesitas exactamente la combinación correcta de estas propiedades, por que si no tienen la concentración correcta de moléculas dirigidoras, no alcanzarás las células que quieres, y si no tienen las propiedades sigilosas correctas, serán tomadas por los macrófagos”, dice Langer, también un miembro del Instituto David H. Koch para la Investigación Integrativa del Cáncer en el MIT.

Las nanopartículas BIND-014 tienen tres componentes: uno que carga la droga, uno que apunte al PSMA, y uno que ayude a evadir macrófagos y las demás células inmunológicas. Hace unos pocos años, Langer y Farokhzad desarrollaron una forma de manipular estas propiedades de forma muy precisa, creando grandes colecciones de partículas diversas que podrían ser probadas para la composición ideal.

“Ellos sistemáticamente hicieron un grupo de materiales que variaban en las propiedades que ellos pensaron que importarían, y desarrollaron una manera de monitorearlos. Eso no ha sido hecho en este tipo de entorno antes”, dice Mark Saltzman, un profesor de ingeniería bioquímica en la Universidad de Yale quien no estuvo involucrado en este estudio. “Han tomado el concepto del laboratorio a las pruebas clínicas, lo que es muy impresionante”.

Todas las partículas están hechas de polímeros ya aprobados para uso médico por la Administración de Alimentos y Drogas (FDA – Food and Drug Administration) de los Estados Unidos.

Resultados clínicos

La prueba clínica fase 1 involucró a 17 pacientes con tumores avanzados o metastáticos que ya habían pasado por la quimioterapia tradicional. En pruebas fase 1, investigadores evalúan la seguridad de una droga potencial y estudian sus efectos en el cuerpo. Para determinar las dosis seguras, a los pacientes les fueron dadas dosis escaladas de nanopartículas. Hasta ahora, dosis de BIND-014 han alcanzado la cantidad de docetaxel usualmente dadas sin nanopartículas, sin nuevos efectos secundarios. Los efectos secundarios conocidos del docetaxel también han sido más suaves.

En las 48 horas después del tratamiento, los investigadores encontraron que la concentración de docetaxel en la sangre de los pacientes era 100 veces más alta con las nanopartículas comparadas al docetaxel administrado en su forma convencional. La más alta concentración en la sangre de BIND-014 facilitó el direccionamiento a los tumores resultando en una reducción de los tumores en pacientes, en algunos casos con dosis de BIND-014 que correspondía a un 20 por ciento de la cantidad de docetaxel normalmente dada. Las nanopartículas también fueron efectivas en cánceres en los que el docetaxel usualmente tiene poca actividad, incluyendo el cáncer cervical y el cáncer de los ductos de la bilis.

Los investigadores también encontraron que en animales tratados con la nanopartícula, la concentración de docetaxel en los tumores era hasta diez veces más altas que en animales tratados con inyecciones de docetaxel convencional las primeras 24 horas, y que el tratamiento con nanopartículas resultó en una reducción de tumores mejorada.

La prueba clínica fase 1 sigue llevándose a cabo; BIND Biosciences ahora planea las pruebas fase 2, que investigarán aún más la efectividad del tratamiento en un mayor número de pacientes.

El desarrollo inicial de las partículas en el MIT y en el Hospital Brigham and Women fue patrocinado con fondos del Instituto Nacional del Cáncer, el Instituto Nacional de Obtención de Imágenes Biomédicas y Bioingeniería, el Instituto David H. Koch para la Investigación Integrativa del Cáncer en el MIT, la Fundación del Cáncer de Próstata, un regalo de David H. Koch y el Centro del Cáncer de Próstata Dana-Farber de Harvard (SPORE). Desarrollo subsecuente por BIND Biosciences fue patrocinado con fondos del Instituto Nacional del Cáncer, el Instituto Nacional de Estándares y Tecnología, y BIND Biosciences. Todos los institutos son de los Estados Unidos.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)