Nuevo vehículo aéreo capaz de vuelo rápido, preciso y repetible

VANT
VANT. Imagen: Andrew Barry

El Robot Locomotion Group de CSAIL revela un nuevo vehículo aéreo controlado por computadora que puede realizar giros muy pronunciados.

Abby Abazorius, CSAIL. Original (en inglés)

¿Cómo maneja un pájaro el viento, colgándose sin ningún esfuerzo mientras es azotado por ráfagas de viento y vuela a través de grupos de árboles con una precisión perfecta? El profesor asociado Russ Tedrake del Departamento de Ingeniería Eléctrica y Ciencia Computacional quiere entender como los pájaros pueden operar bajo dichas condiciones y crear máquinas que puedan hacer lo mismo. Su meta actual es desarrollar un vehículo aéreo que pueda volar como un pájaro, lanzándose a través de árboles y estrechamente evitando obstáculos durante un vuelo a toda velocidad.

Tedrake y el Robot Locomotion Group, su grupo de investigación en el Laboratorio de Ciencia Computacional e Inteligencia Atificial (CSAIL – Computer Science and Artificial Intelligence Laboratory), recientemente reveló un video de un nuevo vehículo aéreo controlado por computadora que puede realizar precisamente giros muy pronunciados, girando 90 grados para lanzarse a través de una abertura más estrecha que las alas del avión.

Esta investigación es parte de una iniciativa de cinco años de múltiples investigaciones patrocinadas por la Oficina de Investigación Naval, liderada por Tedrake e involucrando investigadores del la Universidad de Carnegie Mellon, Harvard, MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts), Universidad de Nueva York y la Universidad de Stanford, para desarrollar un vehículo aéreo no tripulado (VANT o UAV por sus siglas en inglés de unmanned aerial vehicle) del tamaño de un pájaro capaz de vuelo rápido, preciso y repetible a velocidades de 10-15 metros por segundo. El vehículo aéreo desarrollado por Tedrake y su equipo puede operar actualmente a velocidades de 7-8 metros por segundo.

“Somos inspirados por los pájaros, pero no estamos tratando de construir un sistema que los imite exactamente”, dice Andrew Barry, un estudiante graduado en el grupo de investigación de Tedrake. “Estamos tratando de tomar ideas de la naturaleza y entonces construir un sistema diseñado”.

Para crear un VANT capaz de volar como los pájaros, el grupo de investigación de Tedrake primero diseño un vehículo aéreo especial que pudiera manejar el vuelo a alta velocidad. Con la ayuda del profesor Mark Drela del Departamento de Aeronáutica y Astronáutica del MIT, el grupo construyó un vehículo aéreo con alas de espuma chapeadas con fibra de vidrio que eliminan la necesidad de alerones, superficies de control típicamente usadas para el control de giro en un vehículo aéreo. El centro del avión está hecho de hule para que el avión pueda resistir colisiones. El vehículo tiene alas de 71.12 cms y con toda la instrumentación a bordo, incluyendo cámaras estéreo de alta velocidad, pesa actualmente 573 gramos.

“El avión es como un rompecabezas tridimensional de alta tecnología que casi no contiene pegamento. Consiste de más de 30 piezas independientes, muchas de las cuales se deslizan o encajan juntas”, dice Tim Jenks, un ingeniero mecánico quien está trabajando en el grupo de investigación de Tedrake. “Muchas de estas piezas son diseños cortados por láser que podrían ser fácilmente producidos en grandes cantidades”.

Por el momento, el avión es operado usando un sistema de captura de movimientos similar a aquellos usados en Hollywood, pero en el futuro los investigadores están planeando implementar un sistema de visión para guiar y controlar el avión.

El vehículo aéreo de los investigadores.
El vehículo aéreo no tripulado de los investigadores. Imagen: Andrew Barry

Controlar un vehículo aéreo que está realizando tan complicados movimientos a altas velocidades es difícil debido a lo complejo e impredecible del flujo del aire a altos ángulos de ataque, como cuando está realizando un giro muy pronunciado. Antes de volar, los modelos computacionales permiten a los investigadores planear una trayectoria a través de los obstáculos. Entonces, gracias a un sistema de control cuadrático lineal que varía en el tiempo, el avión puede ser guiado precisamente a través de maniobras muy pronunciadas. Durante el vuelo, una computadora remota procesa la trayectoria del avión y envía los resultados al avión de manera inalámbrica, donde las computadoras a bordo envían señales eléctricas a los motores, que activan las alas del avión.

El equipo decidió probar su trabajo con una demostración de giro pronunciado por que la maniobra los forzó a resolver un complicado problema de control.

“Elegimos el experimento con giro pronunciado porque nos forzó a resolver todos los problemas correctos”, dice Barry. “Es un desafío y problema de control, ya que el vehículo aéreo tiene que ser capaz de volar precisamente y realmente rápido. Además, es complicado hacer que el vehículo aéreo gire adecuadamente por que el flujo de aire no es suave”.

“El desafío de la tarea de giro pronunciado fue generar trayectorias para el avión que lo llevaran a sus límites físicos de lo que es capaz mientras sigue la trayectoria de manera consistente y segura”, dice Anirudha Majumdar, un estudiante graduado en el grupo de Tedrake. “Veo la tarea en el video como un pequeño paso hacía la tarea más grande que nos hemos propuesto de volar a través de entornos llenos de obstáculos como bosques. El acercamiento sería tener una gran “librería” de trayectorias similares a la del video que el avión pueda elegir según sus sensores proveen más información sobre los árboles/obstáculos enfrente de él”.

Ultimadamente, la meta del trabajo de Tedrake es ganar un mejor entendimiento para la teoría del control, y como operar máquinas bajo condiciones complejas y variantes como disturbios aerodinámicos. Trabajando en un proyecto como desarrollar un vehículo aéreo que pueda volar como un pájaro y realizar giros pronunciados le permite a Tedrake y a su equipo probar la efectividad de sus sistemas de control con resultados muy claros.

“[Este proyecto] nos fuerza a formular la pregunta correcta por la razón correcta,” dice Tedrake. “Tener equipo como este nos mantiene honestos al evaluar nuestro trabajo para entender mejor la teoría de control”.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Guiando aviones robot usando gestos con las manos

Gestos manos

Investigadores del MIT (Massachusetts Institute of Technology – Instituto tecnológico de Massachusetts) están desarrollando un sistema que le permitiría a las tripulaciones de portaaviones dirigir aviones autónomos usando gestos con las manos.

Larry Hardesty, MIT News OfficeOriginal (en inglés)

Las tripulaciones de los portaaviones utilizan una serie de gestos estándar con las manos para guiar aviones a la cubierta del portaaviones. Pero ya que los aviones robóticos se utilizan con cada vez más frecuencia para misiones aéreas rutinarias, los investigadores en el MIT están trabajando en un sistema que les permitiría seguir el mismo tipo de gestos.

El problema de interpretar señales con las manos tiene dos partes diferentes. El primero es simplemente inferir la postura del cuerpo de quien señala de una imagen digital: ¿Están las manos arriba o abajo, los codos hacia dentro o hacia afuera? El segundo es determinar que gesto específico es mostrado en una serie de imágenes. Los investigadores del MIT están sobre todo preocupados con el segundo problema; presentaron su solución en la edición de marzo del diario ACM Transactions on Interactive Intelligent Systems (Transacciones ACM en Sistemas Interactivos Inteligentes). Pero para probar su acercamiento, también tuvieron que abordar el primer problema, lo que hicieron en un trabajo presentado en la Conferencia Internacional de Reconocimiento Automático de Rostro y Gestos del IEEE (Institute of Electrical and Electronics Engineers – Instituto de Ingenieros Eléctricos y Electrónicos) del año pasado.

Yale Song, un estudiante de doctorado en el Departamento de Ingeniería Eléctrica y Ciencia Computacional en el MIT, y su consejero, el profesor de ciencias computacionales Randall Davis, y David Demirdjian, un científico investigador en el Laboratorio de Ciencia Computacional e Inteligencia Artificial (CSAIL – Computer Science and Artificial Intelligence Laboratory) del MIT, grabaron una serie de videos en los que diversas personas realizaron un conjunto de 24 gestos comúnmente usados por personal de la tripulación de cubierta de un portaaviones. Para probar su sistema de identificación de gestos, primero tuvieron que determinar la pose corporal de cada sujeto en cada cuadro de video. “Estos días puedes fácilmente utilizar un Kinect común o muchos otros controladores”, dice Song, refiriéndose al popular dispositivo de Xbox de Microsoft que le permite a los jugadores controlar videojuegos usando gestos. Pero eso no existía cuando los investigadores del MIT comenzaron su proyecto; para hacer las cosas más complicadas, sus algoritmos tenían que inferir no solo la posición del cuerpo sino además las formas de las manos de los sujetos.

El software de los investigadores del MIT representó el contenido de cada cuadro de video usando solo unas pocas variables: datos tridimensionales sobre las posiciones de los codos y las muñecas, y si las manos estaban abiertas o cerradas, los pulgares abajo o arriba. La base de datos en la que los investigadores guardaron secuencias de dichas representaciones abstractas fue el sujeto de la revista académica del año pasado. Para la nueva revista académica, usaron esa base de datos para entrenar sus algoritmos de clasificación de gestos.

El principal cambio en clasificar las señales, explicó Song, es que la entrada – la secuencia de posiciones corporales – es continua: Miembros de la tripulación de la cubierta del portaaviones están en constante movimiento. El algoritmo que clasifica los gestos, sin embargo, no puede esperar hasta que dejen de moverse para comenzar su análisis. “No podemos simplemente darle miles de cuadros de video, por que tomaría una eternidad”, dice Song.

Por lo tanto el algoritmo de los investigadores trabaja en una serie de pequeñas secuencias de posiciones corporales; cada una es de alrededor de 60 cuadros de longitud, o el equivalente de casi 3 segundos de video. Las secuencias se enciman: La segunda secuencia podría comenzar a, digamos, el cuadro 10 de la primera secuencia, la tercera secuencia al cuadro 10 de la segunda, y así sucesivamente. El problema es que ninguna secuencia puede contener la suficiente información para identificar comprensivamente un gesto, y el nuevo gesto podría comenzar en el medio de un cuadro.

Por cada cuadro en una secuencia, el algoritmo calcula la probabilidad de que pertenezca a cada uno de los 24 gestos. Entonces calcula una media ponderada de las probabilidades para la secuencia entera, lo que mejora la precisión, ya que los promedio preservan información sobre como cada cuadro se relaciona con los anteriores y los subsecuentes. Al evaluar las probabilidades colectivas de secuencia sucesivas, el algoritmo también asume que los gestos no cambian demasiado rápidamente o que son muy erráticos.

En pruebas, el algoritmo de los investigadores correctamente identificó los gestos recolectados en la base de datos de entrenamiento con una precisión de 76 por ciento. Obviamente, ese no es un porcentaje lo suficientemente alto para una aplicación en la cual la tripulación de cubierta – y piezas multimillonarias de equipo – confíen su seguridad. Pero Song cree que sabe como incrementar la precisión del sistema. Parte de la dificultad al entrenar el algoritmo de clasificación es que tiene que considerar muchas posibilidades para cada pose que le es presentada: Por cada posición del brazo hay cuatro posibles posiciones de mano, y por cada posición de mano hay seis diferentes posiciones de brazo. En un trabajo en curso, los investigadores están modificando el algoritmo para que considere los brazos y las manos por separado, lo que reduciría drásticamente la complejidad computacional de su tarea. Como consecuencia, debe aprender a identificar gestos de los datos de entrenamiento mucho más eficientemente.

Philip Cohen, co-fundador y vicepresidente ejecutivo de investigación en Adapx, una compañía que construye interfaces de computadora que dependen de medios naturales de expresión, como escritura y habla, dice que la nueva revista académica de los investigadores del MIT ofrece “una extensión novedosa y una combinación de técnicas de reconocimiento de gestos basado en modelo y apariencia para rastreo del cuerpo y las manos utilizando visión computacional y aprendizaje de máquinas”.

“Estos resultados son importantes y presagian una nueva etapa de investigación que integra el reconocimiento de gestos basado en visión a tecnologías de interacción multimodales humano-computadora y humano-robot”, dice Cohen.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Nuevo sistema permite a robots mapear su entorno continuamente

PR2 con Kinect. Imagen: Hordur Johannsson
PR2 con Kinect. Imagen: Hordur Johannsson

Un algoritmo para construir mapas tridimensionales requiere una cámara de bajo costo, y ninguna entrada humana.

Por Helen Knight, corresponsal de MIT News. Original (en inglés).

Robots podrían navegar un día a través de entornos constantemente cambiantes con virtualmente no entrada humana, gracias a un sistema que les permite construir y actualizar continuamente un mapa tridimensional de su entorno utilizando una cámara de bajo costo como el Kinect de Microsoft.

El sistema, que está siendo desarrollado en el Laboratorio de Ciencia Computacional e Inteligencia Artificial (CSAIL) del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts), también podría permitirle a la gente ciega encontrar su camino sin ayuda a través de edificios con mucha gente como hospitales y centros comerciales.

Para explorar entornos desconocidos, los robots necesitan ser capaces de mapearlos conforme se mueven alrededor – estimando la distancia entre ellos mismos y los muros cercanos, por ejemplo – y planear una ruta alrededor de cualquier obstáculo, dice Maurice Fallon, un científico investigador en CSAIL quién está desarrollando estos sistemas junto con John J. Leonard, profesor de ingeniería mecánica y oceánica, y el estudiante graduado Hordur Johannsson.

Pero mientras que una gran cantidad de investigaciones han sido dedicadas a desarrollar mapas que robots puedan usar para navegar alrededor de un área, estos sistemas no pueden ajustarse a cambios que ocurren en los alrededores con el tiempo, dice Fallon: “Si ves objetos que no estaban ahí previamente, es difícil que un robot incorpore eso en su mapa”.

El nuevo acercamiento, basado en una técnica llamada Localización y Mapeo Simultáneos (SLAM), le permitirá a los robots actualizar constantemente un mapa según aprendan nueva información con el tiempo, dijo. El equipo probó previamente el acercamiento en robots equipados con escáneres láser caros, pero en una revista académica que será presentada este mayo en la Conferencia Internacional sobre Robótica y Automatización en St. Paul, Minnesota, han mostrado como un robot puede localizarse a si mismo en un mapa con solo una cámara de bajo costo como la del Kinect.

Conforme el robot viaja a través de una área inexplorada, la cámara de video de luz visible del sensor del Kinect y el sensor de profundidad infrarrojo escanean los alrededores, construyendo un modelo tridimensional de los muros del cuarto y los objetos en él. Entonces, cuando el robot pasa a través de la misma área de nuevo, el sistema compara las características de la nueva imagen que ha creado – incluyendo detalles como los bordes de los muros, por ejemplo – con todas las imágenes previas obtenidas hasta encontrar una coincidencia.

Al mismo tiempo, el sistema estima constantemente el movimiento del robot, usando sensores a bordo que miden la distancia que sus ruedas han rotado. Combinando la información visual con estos datos de movimiento, puede determinar donde está posicionado el robot dentro del edificio. Combinando las dos fuentes de información le permite al sistema eliminar errores que podrían surgir si solo dependiera de los sensores a bordo del robot, dice Fallon.

Una vez que el sistema está seguro de su posición, cualquier nueva característica que haya aparecido desde que la imagen previa fuera tomada puede ser incorporada al mapa combinando las imágenes de la escena vieja y nueva, dice Fallon.

El equipo probó el sistema en una silla de ruedas robótica, un robot PR2 desarrollado por Willow Garage en Menlo Park, California, y en un traje de sensores portátil vestido por un voluntario humano. Encontraron que podía localizarse a sí mismo dentro de un mapa tridimensional de sus alrededores mientras viajaba hasta 1.5 metros por segundo.

Ultimadamente, el algoritmo podría permitirle a los robots viajar alrededor de oficinas o edificios de hospitales, planeando sus propias rutas con muy poca o ninguna entrada de humanos, dice Fallon.

También podría ser utilizada como una ayuda visual que se puede vestir para gente ciega, permitiéndoles moverse incluso en edificios grandes y llenos de gente de forma independiente, dijo Seth Teller, director del grupo Robótica, Visión y Redes Sensoriales en CSAIL y un investigador principal del proyecto de mapeo portable por humanos. “También hay muchas aplicaciones militares, como mapear un bunker o una red de cuevas para permitir una rápida entrada y salida cuando sea necesario”, dijo. “O un equipo HazMat (Hazardous Materials – Materiales Peligrosos) podría entrar en un sitio de armas químicas o biológicas y mapearlo rápidamente a pie, mientras marca cualquier punto u objeto peligrosos para ser manejados por un equipo de remedio que venga después. Estos equipos visten mucho equipo por lo que el tiempo es esencial, haciendo un mapeo y navegación eficientes críticos”.

Mientras que una gran cantidad de investigaciones se han enfocado en desarrollar algoritmos que le permitan a los robots crear imágenes de lugares que han visitado, el trabajo de Fallon y sus colegas toma estos esfuerzos a un nuevo nivel, dice Radu Rusu, un científico investigador en Willow Garage que no estuvo involucrado en este proyecto. Eso es por que el equipo está usando el sensor Kinect de Microsoft para mapear un espacio tridimensional entero, no solo viendo todo en dos dimensiones.

“Esto abre nuevas posibilidades emocionantes en investigación e ingeniería robótica, ya que la vieja aproximación ‘flatland’ (tierra plana) que ha estado utilizando la comunidad científica por muchos años está fundamentalmente defectuosa”, dijo. “Robots que pueden volar o navegar en entornos con escaleras, rampas y todo tipo de elementos arquitectónicos interiores están un paso más cerca a realmente hacer algo útil. Y todo comienza con ser capaces de navegar”.

Reimpreso con permiso de MIT News.

Más información
http://web.mit.edu/ (en inglés)

Google y su laboratorio sobre inteligencia artificial

Google X
Google "X"

El periódico New York Times, reveló el secreto de la existencia del laboratorio “X” de Google, su ubicación es desconocida y en él se realizan investigaciones para innovar y desarrollar ideas que se adelanten a los tiempos.

Según este diario, Google refleja la ambición por adelantarse a nuestro tiempo y en este proyecto están participando varios de los científicos más reconocidos a nivel mundial.

Este laboratorio estaría reservado a pocas personas, a tal grado que la mayoría de los empleados, desconocen de su existencia. Actualmente los científicos estarían poniéndose de acuerdo para elaborar una lista de 100 “ideas”, éstas en su parte conceptual, muy lejos de convertirse en realidad, aunque el primer proyecto se anunciará a finales de este año.

Algunas de las “ideas” serían: Accesorios del hogar conectadas a la red, vestidos conectados, elementos pequeños conectados (como una taza de café que podría prepararse de manera remota), una bombilla de luz conectada a la red que pudiera conectar de forma inalámbrica con todos los dispositivos.

Aunque hay poca información, se sabe que el laboratorio”X” de Google, está encabezado por Sebastian Thrun, quien es uno de los más importantes expertos a nivel mundial en materia de robótica e inteligencia artificial y profesor en Stanford. Otros integrantes del equipo serían científicos e ingenieros salidos de Microsoft, de los laboratorios de Nokia, MIT, Stanford o la Universidad de Nueva York.

Fuente:
http://alt1040.com/

Muere John McCarthy, padre de la Inteligencia Artificial y creador de Lisp

John McCarthy Stanford
John McCarthy © null0

Este ha sido un mes de grandes pérdidas en el campo de la tecnología. Tras el fallecimiento de Steve Jobs, co-creador de Apple Computers y de los estudios de animación Pixar; y la de Dennis Ritchie, padre de Unix, el día de ayer murió John McCarthy a la edad de 84 años.

John McCarthy es quien uso por primera vez el término “Inteligencia Artificial” y fue uno de los pioneros en el campo, lo que le ganó el título de “Padre de la Inteligencia Artificial”. Además de esto fue el inventor de el lenguaje de programación Lisp, el segundo lenguaje de alto nivel después de Fortran, el cual desde su introducción ha sido relacionado con el campo de la Inteligencia Artificial. Lisp es el lenguage de programación favorito de quien escribe esta nota.

John McCarthy ganó el premio Turing en el año de 1971 por sus avances en el campo de la inteligencia artificial. Enseñó en la universidad de Stanford por casi 40 años.

Fuentes:
www.wired.com (en inglés)
news.cnet.com (en inglés)
www.osnews.com (en inglés)
www.i-programmer.info (en inglés)

Imagen
© null0 CC BY-SA 2.0