Nueva investigación de CSAIL podría ayudar a asegurar la nube

Computación en la nube
Imagen: Tecnocápsulas

Fondos de DARPA fueron entregados a un proyecto que tiene como meta desarrollar una infraestructura de nube inteligente y que se auto-repare.

Abby Abazorius, CSAIL. Original (en inglés)

La computación en la nube se ha vuelto completamente omnipresente, dando lugar a cientos de nuevos servicios basados en web, plataformas para construir aplicaciones, y nuevos tipos de negocios y compañías. Sin embargo, la plataforma libre, fluida y dinámica que la computación en la nube provee también la hace particularmente vulnerable a ciber-ataques. Y debido a que la nube es infraestructura compartida, las consecuencias de dichos ataques pueden ser extremadamente serias.

Ahora, con fondos de la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA – Defense Advanced Research Projects Agency), investigadores del Laboratorio de Ciencia Computacional e Inteligencia Artificial (CSAIL – Computer Science and Artificial Intelligence Laboratory) del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) planea desarrollar un nuevo sistema que ayudaría a la nube a identificar y recuperarse de un ataque casi instantáneamente.

Típicamente, los ciber-ataques fuerzan el apagado del sistema infiltrado entero, independientemnete de si el ataque es en una computadora personal, en un sitio web de negocios o en una red entera. Mientras que el apagado previene que el virus se esparza, éste efectivamente deshabilita la infraestructura subyacente hasta que la limpieza está completa.

El profesor de Ingeniería Eléctrica y Ciencia Computacional Martin Rinard, un investigador principal en CSAIL y líder del proyecto Detección y Reparación de Intrusiones en la Nube (Cloud Intrusion Detection and Repair), y su equipo de investigadores planean desarrollar una infraestructura de computación en la nube inteligente y que se autorepare que sería capaz de identificar la naturaleza del ataque y entonces, esencialmente, arreglarse a sí misma.

El ámbito de su trabajo está basado en examinar las operaciones normales de la nube para crear lineamientos de como debería de verse y funcionar, entonces partir de este modelo para que la nube pueda identificar cuando un ataque está ocurriendo y regresar a la normalidad tan rápidamente como sea posible.

“Muy similar a cómo el cuerpo humano tiene un sistema de monitoreo que puede detectar cuando todo está funcionando normalmente, nuestra hipótesis es que un ataque exitoso puede parecer como una anormalidad en la actividad operativa normal del sistema”, dice Rinard. “Al observar la ejecución de un sistema en la nube ‘normal’ estaremos en el corazón de lo que queremos preservar sobre el sistema, lo que debería mantener a la nube segura de un ataque”.

Rinard cree que un problema mayor con la infraestructura de computación en la nube de hoy en día es la falta de un entendimiento completo de como operan. Su investigación apunta a identificar los efectos sistémicos de comportamiento diferente en sistemas de computación en la nube por pistas sobre como prevenir futuros ataques.

“Nuestra meta es observar y entender la operación normal de la nube, y entonces cuando ocurra algo fuera de lo ordinario, tomar acciones que conduzcan a la nube de vuelta a su modo normal de operaciones”, dice Rinard. “Nuestra expectativa es que si podemos hacer esto, la nube sobrevivirá el ataque y seguirá operando sin ningún problema”.

Al examinar de cerca las operaciones de la nube entera y usando ese modelo para prevenir ataques, el sistema de Rinard debería permitir que la nube detecte y se recupere de nuevos ataques independientemente, una operación que es imposible para sistemas actuales.

“Al monitorear por desviaciones en el comportamiento que sean indicativas de actividad maliciosa en lugar de firmas existentes, nuestro sistema puede detectar y recuperarse de ataques desconocidos previamente”, dice Stelios Sidiroglou-Douskos, un científico investigador en CSAIL.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)
Más información
http://groups.csail.mit.edu/ (en inglés)

Guiando aviones robot usando gestos con las manos

Gestos manos

Investigadores del MIT (Massachusetts Institute of Technology – Instituto tecnológico de Massachusetts) están desarrollando un sistema que le permitiría a las tripulaciones de portaaviones dirigir aviones autónomos usando gestos con las manos.

Larry Hardesty, MIT News OfficeOriginal (en inglés)

Las tripulaciones de los portaaviones utilizan una serie de gestos estándar con las manos para guiar aviones a la cubierta del portaaviones. Pero ya que los aviones robóticos se utilizan con cada vez más frecuencia para misiones aéreas rutinarias, los investigadores en el MIT están trabajando en un sistema que les permitiría seguir el mismo tipo de gestos.

El problema de interpretar señales con las manos tiene dos partes diferentes. El primero es simplemente inferir la postura del cuerpo de quien señala de una imagen digital: ¿Están las manos arriba o abajo, los codos hacia dentro o hacia afuera? El segundo es determinar que gesto específico es mostrado en una serie de imágenes. Los investigadores del MIT están sobre todo preocupados con el segundo problema; presentaron su solución en la edición de marzo del diario ACM Transactions on Interactive Intelligent Systems (Transacciones ACM en Sistemas Interactivos Inteligentes). Pero para probar su acercamiento, también tuvieron que abordar el primer problema, lo que hicieron en un trabajo presentado en la Conferencia Internacional de Reconocimiento Automático de Rostro y Gestos del IEEE (Institute of Electrical and Electronics Engineers – Instituto de Ingenieros Eléctricos y Electrónicos) del año pasado.

Yale Song, un estudiante de doctorado en el Departamento de Ingeniería Eléctrica y Ciencia Computacional en el MIT, y su consejero, el profesor de ciencias computacionales Randall Davis, y David Demirdjian, un científico investigador en el Laboratorio de Ciencia Computacional e Inteligencia Artificial (CSAIL – Computer Science and Artificial Intelligence Laboratory) del MIT, grabaron una serie de videos en los que diversas personas realizaron un conjunto de 24 gestos comúnmente usados por personal de la tripulación de cubierta de un portaaviones. Para probar su sistema de identificación de gestos, primero tuvieron que determinar la pose corporal de cada sujeto en cada cuadro de video. “Estos días puedes fácilmente utilizar un Kinect común o muchos otros controladores”, dice Song, refiriéndose al popular dispositivo de Xbox de Microsoft que le permite a los jugadores controlar videojuegos usando gestos. Pero eso no existía cuando los investigadores del MIT comenzaron su proyecto; para hacer las cosas más complicadas, sus algoritmos tenían que inferir no solo la posición del cuerpo sino además las formas de las manos de los sujetos.

El software de los investigadores del MIT representó el contenido de cada cuadro de video usando solo unas pocas variables: datos tridimensionales sobre las posiciones de los codos y las muñecas, y si las manos estaban abiertas o cerradas, los pulgares abajo o arriba. La base de datos en la que los investigadores guardaron secuencias de dichas representaciones abstractas fue el sujeto de la revista académica del año pasado. Para la nueva revista académica, usaron esa base de datos para entrenar sus algoritmos de clasificación de gestos.

El principal cambio en clasificar las señales, explicó Song, es que la entrada – la secuencia de posiciones corporales – es continua: Miembros de la tripulación de la cubierta del portaaviones están en constante movimiento. El algoritmo que clasifica los gestos, sin embargo, no puede esperar hasta que dejen de moverse para comenzar su análisis. “No podemos simplemente darle miles de cuadros de video, por que tomaría una eternidad”, dice Song.

Por lo tanto el algoritmo de los investigadores trabaja en una serie de pequeñas secuencias de posiciones corporales; cada una es de alrededor de 60 cuadros de longitud, o el equivalente de casi 3 segundos de video. Las secuencias se enciman: La segunda secuencia podría comenzar a, digamos, el cuadro 10 de la primera secuencia, la tercera secuencia al cuadro 10 de la segunda, y así sucesivamente. El problema es que ninguna secuencia puede contener la suficiente información para identificar comprensivamente un gesto, y el nuevo gesto podría comenzar en el medio de un cuadro.

Por cada cuadro en una secuencia, el algoritmo calcula la probabilidad de que pertenezca a cada uno de los 24 gestos. Entonces calcula una media ponderada de las probabilidades para la secuencia entera, lo que mejora la precisión, ya que los promedio preservan información sobre como cada cuadro se relaciona con los anteriores y los subsecuentes. Al evaluar las probabilidades colectivas de secuencia sucesivas, el algoritmo también asume que los gestos no cambian demasiado rápidamente o que son muy erráticos.

En pruebas, el algoritmo de los investigadores correctamente identificó los gestos recolectados en la base de datos de entrenamiento con una precisión de 76 por ciento. Obviamente, ese no es un porcentaje lo suficientemente alto para una aplicación en la cual la tripulación de cubierta – y piezas multimillonarias de equipo – confíen su seguridad. Pero Song cree que sabe como incrementar la precisión del sistema. Parte de la dificultad al entrenar el algoritmo de clasificación es que tiene que considerar muchas posibilidades para cada pose que le es presentada: Por cada posición del brazo hay cuatro posibles posiciones de mano, y por cada posición de mano hay seis diferentes posiciones de brazo. En un trabajo en curso, los investigadores están modificando el algoritmo para que considere los brazos y las manos por separado, lo que reduciría drásticamente la complejidad computacional de su tarea. Como consecuencia, debe aprender a identificar gestos de los datos de entrenamiento mucho más eficientemente.

Philip Cohen, co-fundador y vicepresidente ejecutivo de investigación en Adapx, una compañía que construye interfaces de computadora que dependen de medios naturales de expresión, como escritura y habla, dice que la nueva revista académica de los investigadores del MIT ofrece “una extensión novedosa y una combinación de técnicas de reconocimiento de gestos basado en modelo y apariencia para rastreo del cuerpo y las manos utilizando visión computacional y aprendizaje de máquinas”.

“Estos resultados son importantes y presagian una nueva etapa de investigación que integra el reconocimiento de gestos basado en visión a tecnologías de interacción multimodales humano-computadora y humano-robot”, dice Cohen.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Microsoft muestra sintetizador de voz adaptativo multilenguaje

Voz digital

Microsoft Research ha mostrado software que traduce las palabras que hablas a otro lenguaje preservando el acento, el timbre y la entonación de tu voz. En una demostración del software prototipo, Rick Rashid, presidente de investigaciones de Microsoft, dijo una larga sentencia en inglés, y ésta fue entonces traducida al español, al italiano y al mandarín.

Se puede escuchar todavía que es una voz sintetizada, pero aún así es impresionante como las tres traducciones suenan igual que Rashid. La traducción requiere una hora de entrenamiento, pero después de eso no hay razón de por que no podría funcionar en tiempo real en un celular inteligente, o cerca de tiempo real con un funcionamiento en la nube.

El software consiste de un programa de reconocimiento de voz, que convierte lo que hablas en texto, para después ser pasado por un traductor, y finalmente un sintetizador de voz convierte este texto traducido en voz. Tras el entrenamiento del programa el sintetizador de voz se adapta y puede leer las sentencias con la entonación que les da la persona en su idioma nativo.

Con esta tecnología sería virtualmente posible hablar en tu celular, y salir en el celular de la otra persona en su lenguaje. Entonces, la persona con la que hablas, habla en su celular y su voz sale en el tuyo en tu lenguaje.

Más información
http://www.technologyreview.com/ (en inglés)
http://www.extremetech.com/ (en inglés)
Demostración (mp3, demostración después del minuto 15, demostración con Rick Rashid después del minuto 17:30, en inglés)

Probando chips que no han sido construidos

Chip

Un nuevo sistema de simulación por software promete una evaluación mucho más precisa de prometedores – pero potencialmente llenos de fallas – diseños de chips con múltiples núcleos.

Larry Hardesty, MIT News Office. Original (en inglés)

Durante la última década, los fabricantes de chips de computadoras han estado aumentando la velocidad de sus chips al darles unidades de procesamiento extras, o “núcleos”. La mayoría de los fabricantes ahora ofrecen chips con ocho, 10 o incluso 12 núcleos.

Pero si los chips continúan mejorando a la tasa que nos hemos acostumbrado – doblando su poder alrededor de cada 18 meses – pronto requerirán cientos e incluso miles de núcleos. Investigadores académicos y de la industria están llenos de ideas para mejorar el rendimiento de chips con múltiples núcleos, pero siempre existe la posibilidad de que un acercamiento que parezca trabajar bien con 24 o 48 núcleos pueda introducir problemas catastróficos cuando el conteo de núcleos se vuelva más alto. Ningún fabricante de chips tomará el riesgo de un diseño innovador de chip sin evidencia abrumadora de que funciona como se anuncia.

Como una herramienta de investigación, un grupo del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts) que se especializa en arquitectura computacional ha desarrollado un simulador de software, llamado Hornet, que modela el rendimiento de chips de múltiples núcleos mucho más precisos que sus predecesores lo hacen. En el Quinto Simposio Internacional de Redes-en-Chip en el 2011, el grupo tomó el premio a la mejor revista académica por trabajo en el que usaron el simulador para analizar una prometedora y muy estudiada técnica de computación de múltiples núcleos, encontrando una falla fatal que otras simulaciones habían dejado pasar. Y en una edición próxima de Transacciones en Diseño Ayudado por Computadora de Circuitos y Sistemas Integrados del IEEE (Institute of Electrical and Electronics Engineers), los investigadores presentaron una nueva versión del simulador que analiza el consumo de energía así como patrones de comunicación entre núcleos, los tiempos de procesamiento de tareas individuales, y patrones de acceso a la memoria.

El flujo de datos a través de un chip con cientos de núcleos es monstruosamente complejo, y simuladores de software previos han sacrificado algo de precisión por algo de eficiencia. Para simulaciones más precisas, los investigadores han usado típicamente modelos de hardware – chips programables que pueden ser reconfigurados para imitar el comportamiento de chips de múltiples núcleos. De acuerdo a Myong Hyon Cho, un estudiante de doctorado en el Departamento de Ingeniería Eléctrica y Ciencia Computacional (EECS – Electrical Engineering and Computer Science) y uno de los desarrolladores de Hornet, éste está diseñado para complementar, no competir con, esos otros dos acercamientos. “Pensamos que Hornet se sienta en el punto exacto entre los dos”, dijo Cho.

Varias tareas desarrolladas por los muchos componentes de un chip están sincronizadas por un reloj maestro; durante cada “ciclo del reloj”, cada componente realiza una tarea. Hornet es significativamente más lento que sus predecesores, pero puede proveer una simulación “con precisión de ciclo” de un chip con 1,000 núcleos. “‘Precisión de ciclos’ significa que los resultados son precisos al nivel de un ciclo sencillo”, explica Cho. “Por ejemplo, [Hornet tiene] la habilidad de decir, ‘Esta tarea toma 1,223,392 ciclos para finalizar'”.

Simuladores existentes son buenos al evaluar el desempeño general de chips, pero pueden dejar pasar problemas que aparecen solo en casos raros y patológicos. Hornet es mucho más probable que los encuentre, como lo hizo en el caso de la investigación presentada en el Simposio Reden-en-Chip. Ahí, Cho, su consejero y el profesor de Ingeniería Eléctrica y Ciencia Computacional Srini Devadas, y sus colegas analizaron una prometedora técnica de computación de múltiples núcleos en la que el chip pasa tareas computacionales a los núcleos guardando los datos pertinentes en lugar de pasar los datos a los núcleos realizando las tareas pertinentes. Hornet identificó el riesgo de un problema llamado bloqueo mutuo, que otros simuladores habían perdido. (El bloqueo mutuo es una situación en la que varios de los núcleos están esperando recursos – canales de comunicación o localidades de memoria – en uso por otros núcleos. Ningún núcleo abandonará el recurso hasta que se le ha dado acceso al que necesita, así que los ciclos del reloj avanzan sin fin sin ninguno de los núcleos haciendo nada).

Adicionalmente al identificar el riesgo de bloqueos mutuos, los investigadores también propusieron una manera de evitarlo – y demostraron que su propuesta funcionaba con otra simulación Hornet. Eso ilustra la ventaja de Hornet sobre sistemas de hardware: la facilidad con la que puede ser reconfigurado para probar propuestas de diseño alternativas.

Construir simulaciones que funcionaran en hardware “es más complicado que solo escribir software”, dice Edward Suh, un profesor asistente de ingeniería eléctrica y computacional en la Universidad Cornell, cuyo grupo usó una versión temprana de Hornet que solo modelaba la comunicación entre núcleos. “Es difícil decir si es inherentemente más difícil de escribir, pero al menos por ahora, hay menos infraestructura, y los estudiantes no saben esos lenguajes tan bien como saben los lenguajes de programación regulares. Así que por ahora, es más trabajo”. Hornet, dice Suh, podría tener ventajas en situaciones donde “quieres probar varias ideas rápidamente, con buena precisión”.

Suh apunta, sin embargo, que como Hornet es más lento que las simulaciones de hardware o las simulaciones de software menos precisas, “tiende a simular un corto período de la aplicación en lugar de tratar de ejecutar la aplicación completa”. Pero, agrega, “Eso es definitivamente útil si quieres saber si hay comportamientos anormales”. Y además, “hay técnicas que la gente usa, como muestreo estadístico, o cosas como esa para, digamos, ‘estas son porciones representativas de la aplicación'”.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/

Lanzan al mercado Raspberry Pi con Linux de USD$25

Raspberry Pi
Raspberry Pi

Anteriormente se habló del proyecto Raspberry Pi, una computadora del tamaño de una tarjeta de crédito con un costo de 25 dólares. Según Timothy Lord líder de Eben Upton, ya salió al mercado y ya tienen distribuidores en los Estados Unidos y en otros países. En lugar de comprar un lote de placas, vendiéndolos antes de ordenar otros lotes, los nuevos acuerdos de distribución dan como resultado que puedan mantener un flujo constante de entradas y salidas, los donadores del proyecto están un poco decepcionados por no poder obtener su PI(s) de inmediato.

Las Raspberry Pi, además de poderse conectar a la televisión o a un monitor de computadora con entrada HDMI, pueden utilizarse en varias aplicaciones como una computadora normal, reproduce videos en alta definición, tiene un procesador ARM, puerto USB, entrada para audífonos de 3.5, además de soportar Linux, entre otros sistemas operativos.

Más información
http://hardware.slashdot.org/ (en inglés)

Memorias SSDs tienen un futuro sombrío

Memoria_flash
Memoria flash

De acuerdo a una nueva investigación, mientras más se reducen los circuitos de las memorias flash NAND, utilizadas para hacer unidades de almacenamiento de estado sólido (SSD – Solid-state drives), el rendimiento se degrada precipitadamente: la latencia aumenta, y comienza a haber más errores de datos. Esto significa que la tecnología podría estar acabada.

“Esto vuelve borroso el futuro de la tecnología SSD: Mientras que la capacidad de los SSD y una alta velocidad los vuelve atractivos para muchas aplicaciones, la reducción en rendimiento necesaria para incrementar la capacidad mientras mantiene bajos los costos podría hacer que los SSDs escalen a una tecnología viable para algunas aplicaciones”, dijo Laura Grupp, una estudiante graduada de la Universidad de California, en San Diego, autora principal de la revista académica.

En el estudio fueron probadas 45 diferentes memorias flash NAND de 6 vendedores, desde los 72 nanómetros hasta los 25 nanómetros actuales. Extrapolando sus resultados hasta el año 2024, cuando se espera que las memorias lleguen a ser de 6.5 nanómetros, la latencia se duplicará, y los errores se triplicarán. “Podremos tener capacidad, o velocidad”, dijo Grupp. Para ese entonces, las memorias flash NAND podrían llegar a los 16 TB de capacidad.

Más información
http://www.computerworld.com/ (en inglés)

Oracle lanza MySQL Cluster 7.2, es 70 veces más rápido y de código libre

Logo MySQL
Logotipo de MySQL

Oracle lanzó MySQL Cluster 7.2 como código abierto, y afirma que es 70 veces más rápido. El lanzamiento se hizo bajo una licencia GPL y según lo que dice Oracle ha sido capaz de procesar mil millones de peticiones por minuto.

De acuerdo al comunicado de prensa de Oracle, MySQL Cluster tiene la habilidad de soportar las más demandantes cargas de trabajo de sitios web y telecomunicaciones, mientras mantiene una disponibilidad del 99.999%. La impresionante cantidad de peticiones, mil millones (17.6 millones de peticiones por segundo) fueron hechas en 8 nodos con procesadores Intel x86, accedidos por la API NoSQL C++ NDB.

Esto fue hecho sin sacrificar consistencia o redundancia, todas las actualizaciones fueron replicadas en sincronia entre nodos de datos, asegurando que el grupo mantuviera la disponibilidad del 99.999% sin pérdida de datos en el evento de apagones o actividades planeadas de mantenimiento.

Más información
http://www.mysql.com/ (en inglés)

Memorias magnéticas que guardan dos bits por celda de memoria

STT-MRAM Multinivel
STT-MRAM Multinivel

Memorias de acceso aleatorio (RAM) basadas en una nueva tecnología de transferencia de giros alcanzan una mayor densidad de almacenamiento al almacenar múltiples bits de datos en cada celda de memoria.

Se ha visto un incremento en la demanda de memoria de estado sólido debido a la aparición de dispositivos portátiles como computadoras de tabla y teléfonos inteligentes. La STT-MRAM (Spin-transfer torque magnetoresistive random-access memory – Memoria de acceso aleatorio magnetoresistiva de transferencia de giro por torque) es un nuevo tipo de memoria de estado sólido que utiliza corrientes eléctricas para leer y escribir datos que son almacenados en momentos magnéticos de electrones. Rachid Sbiaa y compañeros de trabajo en el Instituto de Almacenamiento de Datos A*STAR han mejorado la densidad de almacenamiento de las STT-MRAM al empacar múltiples bits de información dentro de cada una de sus celdas de memoria.

Esencialmente, STT-MRAM lee y escribe información pasando corrientes a través de múltiples filmes delgados magnéticos. La información se escribe si el momento magnético de los electrones en la corriente, o su giro, está alineado en una dirección preferible. El torque de estos giros alineados en las capas magnéticas puede ser lo suficiente fuerte para cambiar la dirección magnética de las capas a la dirección ajustada por la corriente.

La lectura de información se realiza a través de la medición de la resistencia eléctrica del dispositivo, que depende de que las magnetizaciones de las capas magnéticas dura y blanda estén alineadas en paralelo o en dirección opuesta relativa una a la otra. La capa magnética dura está hecha de tal manera que su magnetismo no puede ser cambiado por corrientes eléctricas. Para agregar un segundo bit, los investigadores agregaros una segunda capa magnética suave. Estas dos capas son ligeramente diferentes, una más “dura” que la otra, y pueden por lo tanto cambiar independientemente al aplicar una corriente eléctrica. De esta manera se pueden tener cuatro estados posibles.

Más información
http://www.research.a-star.edu.sg/ (en inglés)

Aparecen programas para explotar una vulnerabilidad en el kernel de Linux

Linux

Vendedores de Linux están apresurándose para arreglar una vulnerabilidad de escalado de privilegios en el kernel que puede ser explotado por atacantes locales para ganar acceso como superusuario (root) al sistema.

La vulnerabilidad, identificada como CVE-2012-0056, fue descubierta en Marzo del 2011 y fue corregida el 15 de Enero de este año, y afectaba al kernel desde la versión 2.6.39 en adelante. Es provocada por que el kernel de Linux no restringe el acceso a “/proc//mem” apropiadamente. Ubuntu y Red Hat ya han lanzado actualizaciones para esta vulnerabilidad.

Uno de los programas que explotan esta vulnerabilidad es llamado mempodipper, escrito por el investigador de seguridad Jason A. Donenfeld. Esto inspiró a otros como al creador de Cydia, Jay Freeman mejor conocido como saurik, a crear su propio programa para explotar la vulnerabilidad. Freeman creó un programa llamado mempodroid y lo utilizó para desbloquear Android 4.0 en celulares.

Más información
http://www.techworld.com.au/ (en inglés)
Repositorio Git de Mempodipper
Repositorio Git de Mempodroid

La transformación rápida de Fourier aún más rápida

Fast Fourier Transform
Imagen: Christine Daniloff

Investigadores del MIT encontraron una manera de incrementar la velocidad de uno de los algoritmos más importantes en la ciencia de la información para un gran rango de usos prácticos.

Por Larry Hardesty, Oficina de noticias del MIT. Original.

La Transformación de Fourier es uno de los conceptos más fundamentales en las ciencias de la información. Es un método para representar una señal irregular – como la fluctuación de voltaje en el cable que conecta el reproductor de MP3 a una bocina – como una combinación de frecuencias puras. Es universal en procesamiento de señales, pero también puede ser usada para comprimir archivos de imágenes y de audio, resolver ecuaciones diferenciales y opciones de precios de acciones, entre otras cosas.

La razón por la que la Transformación de Fourier es tan prevalente es un algoritmo llamado la Transformación Rápida de Fourier (FFT), diseñada a mediados de los 60s, que hizo práctico el calcular Transformaciones de Fourier al vuelo. Sin embargo, desde que se propuso FFT, la gente se ha preguntado si podría encontrarse un algoritmo aún más rápido.

Esta semana en el Simposio sobre Algoritmos Discretos de la Asociación para la Maquinaria Computacional (SODA), un grupo de investigadores del MIT presentarán un nuevo algoritmo que, en un gran rango de casos importantes prácticamente, mejora la transformación rápida de Fourier. Bajo algunas circunstancias, la mejora puede ser dramática – hasta diez veces de aumento en velocidad. El nuevo algoritmo puede ser particularmente útil para la compresión de imágenes, permitiendo que los teléfonos celulares puedan transmitir inalámbricamente grandes archivos de video sin acabar con sus baterías o consumir su tasa permitida de ancho de banda.

Reimpreso con permiso de MIT News

Más información
http://web.mit.edu/