Guiando aviones robot usando gestos con las manos

Gestos manos

Investigadores del MIT (Massachusetts Institute of Technology – Instituto tecnológico de Massachusetts) están desarrollando un sistema que le permitiría a las tripulaciones de portaaviones dirigir aviones autónomos usando gestos con las manos.

Larry Hardesty, MIT News OfficeOriginal (en inglés)

Las tripulaciones de los portaaviones utilizan una serie de gestos estándar con las manos para guiar aviones a la cubierta del portaaviones. Pero ya que los aviones robóticos se utilizan con cada vez más frecuencia para misiones aéreas rutinarias, los investigadores en el MIT están trabajando en un sistema que les permitiría seguir el mismo tipo de gestos.

El problema de interpretar señales con las manos tiene dos partes diferentes. El primero es simplemente inferir la postura del cuerpo de quien señala de una imagen digital: ¿Están las manos arriba o abajo, los codos hacia dentro o hacia afuera? El segundo es determinar que gesto específico es mostrado en una serie de imágenes. Los investigadores del MIT están sobre todo preocupados con el segundo problema; presentaron su solución en la edición de marzo del diario ACM Transactions on Interactive Intelligent Systems (Transacciones ACM en Sistemas Interactivos Inteligentes). Pero para probar su acercamiento, también tuvieron que abordar el primer problema, lo que hicieron en un trabajo presentado en la Conferencia Internacional de Reconocimiento Automático de Rostro y Gestos del IEEE (Institute of Electrical and Electronics Engineers – Instituto de Ingenieros Eléctricos y Electrónicos) del año pasado.

Yale Song, un estudiante de doctorado en el Departamento de Ingeniería Eléctrica y Ciencia Computacional en el MIT, y su consejero, el profesor de ciencias computacionales Randall Davis, y David Demirdjian, un científico investigador en el Laboratorio de Ciencia Computacional e Inteligencia Artificial (CSAIL – Computer Science and Artificial Intelligence Laboratory) del MIT, grabaron una serie de videos en los que diversas personas realizaron un conjunto de 24 gestos comúnmente usados por personal de la tripulación de cubierta de un portaaviones. Para probar su sistema de identificación de gestos, primero tuvieron que determinar la pose corporal de cada sujeto en cada cuadro de video. “Estos días puedes fácilmente utilizar un Kinect común o muchos otros controladores”, dice Song, refiriéndose al popular dispositivo de Xbox de Microsoft que le permite a los jugadores controlar videojuegos usando gestos. Pero eso no existía cuando los investigadores del MIT comenzaron su proyecto; para hacer las cosas más complicadas, sus algoritmos tenían que inferir no solo la posición del cuerpo sino además las formas de las manos de los sujetos.

El software de los investigadores del MIT representó el contenido de cada cuadro de video usando solo unas pocas variables: datos tridimensionales sobre las posiciones de los codos y las muñecas, y si las manos estaban abiertas o cerradas, los pulgares abajo o arriba. La base de datos en la que los investigadores guardaron secuencias de dichas representaciones abstractas fue el sujeto de la revista académica del año pasado. Para la nueva revista académica, usaron esa base de datos para entrenar sus algoritmos de clasificación de gestos.

El principal cambio en clasificar las señales, explicó Song, es que la entrada – la secuencia de posiciones corporales – es continua: Miembros de la tripulación de la cubierta del portaaviones están en constante movimiento. El algoritmo que clasifica los gestos, sin embargo, no puede esperar hasta que dejen de moverse para comenzar su análisis. “No podemos simplemente darle miles de cuadros de video, por que tomaría una eternidad”, dice Song.

Por lo tanto el algoritmo de los investigadores trabaja en una serie de pequeñas secuencias de posiciones corporales; cada una es de alrededor de 60 cuadros de longitud, o el equivalente de casi 3 segundos de video. Las secuencias se enciman: La segunda secuencia podría comenzar a, digamos, el cuadro 10 de la primera secuencia, la tercera secuencia al cuadro 10 de la segunda, y así sucesivamente. El problema es que ninguna secuencia puede contener la suficiente información para identificar comprensivamente un gesto, y el nuevo gesto podría comenzar en el medio de un cuadro.

Por cada cuadro en una secuencia, el algoritmo calcula la probabilidad de que pertenezca a cada uno de los 24 gestos. Entonces calcula una media ponderada de las probabilidades para la secuencia entera, lo que mejora la precisión, ya que los promedio preservan información sobre como cada cuadro se relaciona con los anteriores y los subsecuentes. Al evaluar las probabilidades colectivas de secuencia sucesivas, el algoritmo también asume que los gestos no cambian demasiado rápidamente o que son muy erráticos.

En pruebas, el algoritmo de los investigadores correctamente identificó los gestos recolectados en la base de datos de entrenamiento con una precisión de 76 por ciento. Obviamente, ese no es un porcentaje lo suficientemente alto para una aplicación en la cual la tripulación de cubierta – y piezas multimillonarias de equipo – confíen su seguridad. Pero Song cree que sabe como incrementar la precisión del sistema. Parte de la dificultad al entrenar el algoritmo de clasificación es que tiene que considerar muchas posibilidades para cada pose que le es presentada: Por cada posición del brazo hay cuatro posibles posiciones de mano, y por cada posición de mano hay seis diferentes posiciones de brazo. En un trabajo en curso, los investigadores están modificando el algoritmo para que considere los brazos y las manos por separado, lo que reduciría drásticamente la complejidad computacional de su tarea. Como consecuencia, debe aprender a identificar gestos de los datos de entrenamiento mucho más eficientemente.

Philip Cohen, co-fundador y vicepresidente ejecutivo de investigación en Adapx, una compañía que construye interfaces de computadora que dependen de medios naturales de expresión, como escritura y habla, dice que la nueva revista académica de los investigadores del MIT ofrece “una extensión novedosa y una combinación de técnicas de reconocimiento de gestos basado en modelo y apariencia para rastreo del cuerpo y las manos utilizando visión computacional y aprendizaje de máquinas”.

“Estos resultados son importantes y presagian una nueva etapa de investigación que integra el reconocimiento de gestos basado en visión a tecnologías de interacción multimodales humano-computadora y humano-robot”, dice Cohen.

Reimpreso con permiso de MIT News.

Fuente
http://web.mit.edu/ (en inglés)

Tecnología que presta más que solo una mano de ayuda

Robo guante
Imagen: NASA

Mientras que Robonaut 2 ha estado muy ocupado probando su tecnología en microgravedad a bordo de la Estación Espacial Internacional, NASA y General Motors han estado trabajando juntos en el suelo para encontrar nuevas formas en que estas tecnologías se puedan utilizar.

Los dos grupos empezaron trabajando juntos en 2007 en el Robonaut 2, o R2, que en 2011 se convirtió en el primer robot humanoide en el espacio. Ahora ellos están desarrollando conjuntamente un guante robótico que los trabajadores automotrices y astronautas puedan llevar para ayudar a hacer mejor sus respectivos trabajos, que reduzcan potencialmente el riesgo de lesiones por esfuerzo repetitivo. Oficialmente, es llamado el dispositivo de asistencia de comprensión humana (the Human Grasp Assist device), pero generalmente es llamado el K-Glove (K-guante) o Robo-Glove (Robo-Guante), para abreviar.

Cuando los ingenieros, investigadores y científicos de GM y la NASA comenzaron a colaborar en R2, uno de los requisitos de diseño fue para que el robot opere herramientas diseñadas para los seres humanos, junto con los astronautas en el exterior y los trabajadores de la fábrica en la tierra. El equipo alcanzó un nivel sin precedente de destreza manual en R2 mediante el uso de sensores de vanguardia, actuadores y tendones comparables con los nervios, músculos y tendones en una mano humana. De este modo, se dieron cuenta de que no había razón para que un robot deba ser el único en beneficiarse de sus resultados.

La investigación muestra que agarrar continuamente una herramienta puede causar fatiga en los músculos de la mano a los pocos minutos, pero las pruebas iniciales del Robo-Guante indica que el usuario puede mantener un agarre por más tiempo y más cómodamente.

Por ejemplo, un astronauta que trabaja en un traje presurizado fuera de la estación espacial o un operador de montaje en una fábrica podrían necesitar utilizar de 15 a 20 libras de fuerza para sostener una herramienta durante una operación, pero con el guante robótico podrían necesitar aplicar solo 5 o 10 libras de fuerza.

“El guante prototipo ofrece a mi equipo del traje espacial un oportunidad prometedora para explorar nuevas ideas, y desafía nuestra tradicional forma de pensar de lo que la destreza manual de la actividad extravehicular podría ser”, dijo Trish Petete, Jefe de división, de la tripulación y de la División de Sistemas Térmicos (Crew and Thermal System Division), del Centro Espacial Johnson de la NASA.

Y hay aplicaciones prometedoras en el suelo, también.

“cuando esté completamente desarrollado, el Robo-Guante tiene el potencial para reducir la cantidad de fuerza que un trabajador automotriz tendría que ejercer cuando utilice una herramienta por un tiempo prolongado o con movimientos repetitivos”, dijo Dana Komin, director de ingeniería y manufactura de GM, de automatización global de Estrategia y ejecución. “De este modo, se espera reducir el riesgo de lesión por esfuerzo repetitivo”.

Inspirado por el sistema de accionamiento de dedos de R2, los actuadores están incrustados en la porción superior del guante para proporcionar apoyo de agarre a los dedos humanos. Los sensores de presión, similares a los sensores que le dan a R2 su sentido del tacto, son incorporados en las yemas de los dedos del guante para detectar cuándo el usuario está agarrando una herramienta. Cuando el usuario agarra la herramienta, los tendones sintéticos automáticamente se retraen, tirando de los dedos a una posición de agarre y manteniéndolos ahí hasta que el sensor se libera.

La NASA y GM han presentado 46 solicitudes de patente para P2, incluyendo 21 para las manos de R2 y cuatro para Robo-guante.

“El K-guante es el primero de lo que esperamos sean muchos spin-offs derivados de Robonaut 2”, dijo Ron Diftler, director del proyecto Robonaut 2. “Otro ejemplo es que estamos desarrollando brazos construidos sobre la tecnología Robonaut para ser usados en Vehículos de Exploración espacial en misiones múltiples de la NASA”. El primer prototipo del guante fue completado en marzo de 2011 con una segunda generación que llega tres meses después. La tela para el guante fue producida por Oceaneering Space Systems, la misma compañía que proporciona la “piel” de R2.

Los prototipos actuales pesan cerca de 2 libras e incluyen la electrónica de control, actuadores y una pequeña pantalla para la programación y el diagnóstico. Una batería de iones de litio común en herramientas con un cinturón sujetador es usada para alimentar el sistema. Un prototipo de tercera generación que utilizará componentes de re-empacado para reducir el tamaño y el peso del sistema que está a punto de completarse.

Fuente
http://www.nasa.gov/ (en inglés)

Nuevo sistema permite a robots mapear su entorno continuamente

PR2 con Kinect. Imagen: Hordur Johannsson
PR2 con Kinect. Imagen: Hordur Johannsson

Un algoritmo para construir mapas tridimensionales requiere una cámara de bajo costo, y ninguna entrada humana.

Por Helen Knight, corresponsal de MIT News. Original (en inglés).

Robots podrían navegar un día a través de entornos constantemente cambiantes con virtualmente no entrada humana, gracias a un sistema que les permite construir y actualizar continuamente un mapa tridimensional de su entorno utilizando una cámara de bajo costo como el Kinect de Microsoft.

El sistema, que está siendo desarrollado en el Laboratorio de Ciencia Computacional e Inteligencia Artificial (CSAIL) del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts), también podría permitirle a la gente ciega encontrar su camino sin ayuda a través de edificios con mucha gente como hospitales y centros comerciales.

Para explorar entornos desconocidos, los robots necesitan ser capaces de mapearlos conforme se mueven alrededor – estimando la distancia entre ellos mismos y los muros cercanos, por ejemplo – y planear una ruta alrededor de cualquier obstáculo, dice Maurice Fallon, un científico investigador en CSAIL quién está desarrollando estos sistemas junto con John J. Leonard, profesor de ingeniería mecánica y oceánica, y el estudiante graduado Hordur Johannsson.

Pero mientras que una gran cantidad de investigaciones han sido dedicadas a desarrollar mapas que robots puedan usar para navegar alrededor de un área, estos sistemas no pueden ajustarse a cambios que ocurren en los alrededores con el tiempo, dice Fallon: “Si ves objetos que no estaban ahí previamente, es difícil que un robot incorpore eso en su mapa”.

El nuevo acercamiento, basado en una técnica llamada Localización y Mapeo Simultáneos (SLAM), le permitirá a los robots actualizar constantemente un mapa según aprendan nueva información con el tiempo, dijo. El equipo probó previamente el acercamiento en robots equipados con escáneres láser caros, pero en una revista académica que será presentada este mayo en la Conferencia Internacional sobre Robótica y Automatización en St. Paul, Minnesota, han mostrado como un robot puede localizarse a si mismo en un mapa con solo una cámara de bajo costo como la del Kinect.

Conforme el robot viaja a través de una área inexplorada, la cámara de video de luz visible del sensor del Kinect y el sensor de profundidad infrarrojo escanean los alrededores, construyendo un modelo tridimensional de los muros del cuarto y los objetos en él. Entonces, cuando el robot pasa a través de la misma área de nuevo, el sistema compara las características de la nueva imagen que ha creado – incluyendo detalles como los bordes de los muros, por ejemplo – con todas las imágenes previas obtenidas hasta encontrar una coincidencia.

Al mismo tiempo, el sistema estima constantemente el movimiento del robot, usando sensores a bordo que miden la distancia que sus ruedas han rotado. Combinando la información visual con estos datos de movimiento, puede determinar donde está posicionado el robot dentro del edificio. Combinando las dos fuentes de información le permite al sistema eliminar errores que podrían surgir si solo dependiera de los sensores a bordo del robot, dice Fallon.

Una vez que el sistema está seguro de su posición, cualquier nueva característica que haya aparecido desde que la imagen previa fuera tomada puede ser incorporada al mapa combinando las imágenes de la escena vieja y nueva, dice Fallon.

El equipo probó el sistema en una silla de ruedas robótica, un robot PR2 desarrollado por Willow Garage en Menlo Park, California, y en un traje de sensores portátil vestido por un voluntario humano. Encontraron que podía localizarse a sí mismo dentro de un mapa tridimensional de sus alrededores mientras viajaba hasta 1.5 metros por segundo.

Ultimadamente, el algoritmo podría permitirle a los robots viajar alrededor de oficinas o edificios de hospitales, planeando sus propias rutas con muy poca o ninguna entrada de humanos, dice Fallon.

También podría ser utilizada como una ayuda visual que se puede vestir para gente ciega, permitiéndoles moverse incluso en edificios grandes y llenos de gente de forma independiente, dijo Seth Teller, director del grupo Robótica, Visión y Redes Sensoriales en CSAIL y un investigador principal del proyecto de mapeo portable por humanos. “También hay muchas aplicaciones militares, como mapear un bunker o una red de cuevas para permitir una rápida entrada y salida cuando sea necesario”, dijo. “O un equipo HazMat (Hazardous Materials – Materiales Peligrosos) podría entrar en un sitio de armas químicas o biológicas y mapearlo rápidamente a pie, mientras marca cualquier punto u objeto peligrosos para ser manejados por un equipo de remedio que venga después. Estos equipos visten mucho equipo por lo que el tiempo es esencial, haciendo un mapeo y navegación eficientes críticos”.

Mientras que una gran cantidad de investigaciones se han enfocado en desarrollar algoritmos que le permitan a los robots crear imágenes de lugares que han visitado, el trabajo de Fallon y sus colegas toma estos esfuerzos a un nuevo nivel, dice Radu Rusu, un científico investigador en Willow Garage que no estuvo involucrado en este proyecto. Eso es por que el equipo está usando el sensor Kinect de Microsoft para mapear un espacio tridimensional entero, no solo viendo todo en dos dimensiones.

“Esto abre nuevas posibilidades emocionantes en investigación e ingeniería robótica, ya que la vieja aproximación ‘flatland’ (tierra plana) que ha estado utilizando la comunidad científica por muchos años está fundamentalmente defectuosa”, dijo. “Robots que pueden volar o navegar en entornos con escaleras, rampas y todo tipo de elementos arquitectónicos interiores están un paso más cerca a realmente hacer algo útil. Y todo comienza con ser capaces de navegar”.

Reimpreso con permiso de MIT News.

Más información
http://web.mit.edu/ (en inglés)

Enjambre de Nano Cuadracópteros (video)

El laboratorio GRASP (General Robotics, Automation, Sensing & Perception – Robótica General, Automatización, Sensibilidad y Percepción) de la Universidad de Pennsylvania realizó experimentos con un equipo de nano cuadracópteros (pequeñas máquinas voladoras propulsadas por 4 rotores) desarrollados por KMel Robotics. En sus experimentos, mostrados en el video mostraron el vuelo en enjambre, realizando formaciones y actuando en conjunto.

El vehículo Opportunity pasará el invierno en el cráter marciano Endeavour

Opportunity
© apod.nasa.gov

Este vehículo robótico de la NASA llegó al planeta Marte en el verano pasado después de realizar un viaje de casi 3 años desde que partió de la Tierra.

Este será el quinto invierno del planeta rojo desde la llegada del vehículo robótico Opportunity el cual pasará esta estación invernal marciana en la orilla norte del cráter Endeavour, donde continuará con sus labores científicas para obtener datos sobre las oscilaciones en la rotación de Marte que servirán para conocer mejor la estructura interna de dicho planeta, además el brazo robótico de Opportunity investigará la composición de las rocas del suelo marciano.

Los vehículos gemelos Opportunity y Spirit que fueron enviados a Marte en el año 2003, hasta el día de hoy siguen funcionando, a pesar de que originalmente los responsables de esta misión pensaron que su funcionamiento solo sería por 90 días.

Fuente:
http://sp.rian.ru/

Stratolaunch: un gran avión para lanzar cohetes al espacio

Stratolaunch
Stratolaunch

Paul Allen, co-fundador de Microsoft y su nueva empresa Stratolaunch System se dedicará a la construcción de equipos para viajar al espacio y su primer proyecto es desarrollar el avión más grande del mundo, que pueda ser capaz de lanzar cohetes no tripulados al espacio, en vez de ser lanzados desde una plataforma de lanzadera como se hace actualmente. Asegura el propio Allen que éste es el plan inicial y en el futuro se convertirán en vuelos tripulados.

Las características del proyecto son:
El avión sería impulsado por 6 motores jumbo 747, pesaría 544 toneladas y tendría 117 metros de envergadura. Además contaría con una autonomía de 2400 kilómetros.
Los cohetes y naves sin clara especificación aún, tendrían una longitud de 37 metros, un peso aproximado de 223 toneladas y capacidad de poner en órbita hasta 10 toneladas.

Si el proyecto se desarrolla en forma y tiempo establecidos, los viajes iniciarían en el 2016, por lo pronto en alguna parte del desierto de Mojave, ya inició la construcción de uno de los proyectos privados más grande en la historia de los viajes espaciales.

Referencias:
http://stratolaunch.com/ (en inglés)
http://www.digitaljournal.com/ (en inglés)

El ejército de EE. UU. solicita proyectil inteligente

Proyectil inteligente
© Corbis

Los militares estadounidenses solicitaron a sus proveedores crear un proyectil inteligente, que reúna las siguientes características: debe ser tipo Obús, capaz de volar durante 10 minutos, avanzar mínimo 1 kilómetro, durante el vuelo transmitir imágenes de su alrededor, fijar coordenadas GPS de todo lo que le rodea, poder explosionarlo si el operador así lo decide en base a las imágenes recibidas, pueda ser lanzado con equipo estándar ya existente como lanzagranadas, morteros y también que sea posible su separación de un misil o de algún aparato en pleno vuelo como un avión o helicóptero.

Representantes del ejército, explicaron que este proyectil “inteligente” ayudará a salvar vidas de civiles que estuviesen en el punto de la explosión planeada y eliminar a los verdaderos enemigos, además sería de utilidad en operaciones de rescate.

Fuente:
http://actualidad.rt.com/

Robots patrullarán prisiones en Corea del Sur

Prototipo de Guardia Robot
Prototipo de guardia robot © Yonhap

En su intento de convertirse en un líder en la tecnología robótica, Corea del Sur está a punto de poner un nuevo tipo de robot: un guardia robot.

El proyecto patrocinado por el Ministerio de Justicia, se llevará a cabo en una prisión de la ciudad de Pohang, al sureste de Seúl, a partir de marzo.

Estos robots están diseñados para patrullar los pasillos, monitorear las condiciones de las celdas y alertar a los guardias humanos de violencia o malos comportamientos entre los reclusos.

Más información:
http://blogs.wsj.com/(en inglés)

Google y su laboratorio sobre inteligencia artificial

Google X
Google "X"

El periódico New York Times, reveló el secreto de la existencia del laboratorio “X” de Google, su ubicación es desconocida y en él se realizan investigaciones para innovar y desarrollar ideas que se adelanten a los tiempos.

Según este diario, Google refleja la ambición por adelantarse a nuestro tiempo y en este proyecto están participando varios de los científicos más reconocidos a nivel mundial.

Este laboratorio estaría reservado a pocas personas, a tal grado que la mayoría de los empleados, desconocen de su existencia. Actualmente los científicos estarían poniéndose de acuerdo para elaborar una lista de 100 “ideas”, éstas en su parte conceptual, muy lejos de convertirse en realidad, aunque el primer proyecto se anunciará a finales de este año.

Algunas de las “ideas” serían: Accesorios del hogar conectadas a la red, vestidos conectados, elementos pequeños conectados (como una taza de café que podría prepararse de manera remota), una bombilla de luz conectada a la red que pudiera conectar de forma inalámbrica con todos los dispositivos.

Aunque hay poca información, se sabe que el laboratorio”X” de Google, está encabezado por Sebastian Thrun, quien es uno de los más importantes expertos a nivel mundial en materia de robótica e inteligencia artificial y profesor en Stanford. Otros integrantes del equipo serían científicos e ingenieros salidos de Microsoft, de los laboratorios de Nokia, MIT, Stanford o la Universidad de Nueva York.

Fuente:
http://alt1040.com/

Chip capaz de leer la mente, creado en Japón

Chip lee la mente
© RT

Científicos del Instituto Tecnológico de Tokio, crearon un chip que puede captar las ondas cerebrales y transmitir hasta 512 mensajes a dispositivos electrónicos o robóticos. Este tipo de chip fue implantado en el cerebro de 12 pacientes de entre 13 y 66 años, con diferentes discapacidades físicas.

Los pacientes con el chip implantado, ayudados por una mano cibernética, lograron mover objetos con una precisión de 90% de movimiento, gracias a la interacción entre el chip y la mano robótica.

Con este dispositivo, buscan ayudar a las personas con parálisis parcial o total, para recuperar la capacidad de vivir plenamente en algunos aspectos de la vida cotidiana.

Para aprovechar al máximo los beneficios de este sistema, será necesario un largo proceso de entrenamiento, porque hay que aprender a asociar un pensamiento determinado, con un movimiento en particular. Además se debe de tener en cuenta que hasta los movimientos más simples que las personas realizan mecánicamente, implican complejas señales eléctricas que son muy difíciles de replicar.

Fuente:
http://actualidad.rt.com/