Nuevo sistema permite a robots mapear su entorno continuamente

PR2 con Kinect. Imagen: Hordur Johannsson
PR2 con Kinect. Imagen: Hordur Johannsson
PR2 con Kinect. Imagen: Hordur Johannsson

Un algoritmo para construir mapas tridimensionales requiere una cámara de bajo costo, y ninguna entrada humana.

Por Helen Knight, corresponsal de MIT News. Original (en inglés).

Robots podrían navegar un día a través de entornos constantemente cambiantes con virtualmente no entrada humana, gracias a un sistema que les permite construir y actualizar continuamente un mapa tridimensional de su entorno utilizando una cámara de bajo costo como el Kinect de Microsoft.

El sistema, que está siendo desarrollado en el Laboratorio de Ciencia Computacional e Inteligencia Artificial (CSAIL) del MIT (Massachusetts Institute of Technology – Instituto Tecnológico de Massachusetts), también podría permitirle a la gente ciega encontrar su camino sin ayuda a través de edificios con mucha gente como hospitales y centros comerciales.

Para explorar entornos desconocidos, los robots necesitan ser capaces de mapearlos conforme se mueven alrededor – estimando la distancia entre ellos mismos y los muros cercanos, por ejemplo – y planear una ruta alrededor de cualquier obstáculo, dice Maurice Fallon, un científico investigador en CSAIL quién está desarrollando estos sistemas junto con John J. Leonard, profesor de ingeniería mecánica y oceánica, y el estudiante graduado Hordur Johannsson.

Pero mientras que una gran cantidad de investigaciones han sido dedicadas a desarrollar mapas que robots puedan usar para navegar alrededor de un área, estos sistemas no pueden ajustarse a cambios que ocurren en los alrededores con el tiempo, dice Fallon: “Si ves objetos que no estaban ahí previamente, es difícil que un robot incorpore eso en su mapa”.

El nuevo acercamiento, basado en una técnica llamada Localización y Mapeo Simultáneos (SLAM), le permitirá a los robots actualizar constantemente un mapa según aprendan nueva información con el tiempo, dijo. El equipo probó previamente el acercamiento en robots equipados con escáneres láser caros, pero en una revista académica que será presentada este mayo en la Conferencia Internacional sobre Robótica y Automatización en St. Paul, Minnesota, han mostrado como un robot puede localizarse a si mismo en un mapa con solo una cámara de bajo costo como la del Kinect.

Conforme el robot viaja a través de una área inexplorada, la cámara de video de luz visible del sensor del Kinect y el sensor de profundidad infrarrojo escanean los alrededores, construyendo un modelo tridimensional de los muros del cuarto y los objetos en él. Entonces, cuando el robot pasa a través de la misma área de nuevo, el sistema compara las características de la nueva imagen que ha creado – incluyendo detalles como los bordes de los muros, por ejemplo – con todas las imágenes previas obtenidas hasta encontrar una coincidencia.

Al mismo tiempo, el sistema estima constantemente el movimiento del robot, usando sensores a bordo que miden la distancia que sus ruedas han rotado. Combinando la información visual con estos datos de movimiento, puede determinar donde está posicionado el robot dentro del edificio. Combinando las dos fuentes de información le permite al sistema eliminar errores que podrían surgir si solo dependiera de los sensores a bordo del robot, dice Fallon.

Una vez que el sistema está seguro de su posición, cualquier nueva característica que haya aparecido desde que la imagen previa fuera tomada puede ser incorporada al mapa combinando las imágenes de la escena vieja y nueva, dice Fallon.

El equipo probó el sistema en una silla de ruedas robótica, un robot PR2 desarrollado por Willow Garage en Menlo Park, California, y en un traje de sensores portátil vestido por un voluntario humano. Encontraron que podía localizarse a sí mismo dentro de un mapa tridimensional de sus alrededores mientras viajaba hasta 1.5 metros por segundo.

Ultimadamente, el algoritmo podría permitirle a los robots viajar alrededor de oficinas o edificios de hospitales, planeando sus propias rutas con muy poca o ninguna entrada de humanos, dice Fallon.

También podría ser utilizada como una ayuda visual que se puede vestir para gente ciega, permitiéndoles moverse incluso en edificios grandes y llenos de gente de forma independiente, dijo Seth Teller, director del grupo Robótica, Visión y Redes Sensoriales en CSAIL y un investigador principal del proyecto de mapeo portable por humanos. “También hay muchas aplicaciones militares, como mapear un bunker o una red de cuevas para permitir una rápida entrada y salida cuando sea necesario”, dijo. “O un equipo HazMat (Hazardous Materials – Materiales Peligrosos) podría entrar en un sitio de armas químicas o biológicas y mapearlo rápidamente a pie, mientras marca cualquier punto u objeto peligrosos para ser manejados por un equipo de remedio que venga después. Estos equipos visten mucho equipo por lo que el tiempo es esencial, haciendo un mapeo y navegación eficientes críticos”.

Mientras que una gran cantidad de investigaciones se han enfocado en desarrollar algoritmos que le permitan a los robots crear imágenes de lugares que han visitado, el trabajo de Fallon y sus colegas toma estos esfuerzos a un nuevo nivel, dice Radu Rusu, un científico investigador en Willow Garage que no estuvo involucrado en este proyecto. Eso es por que el equipo está usando el sensor Kinect de Microsoft para mapear un espacio tridimensional entero, no solo viendo todo en dos dimensiones.

“Esto abre nuevas posibilidades emocionantes en investigación e ingeniería robótica, ya que la vieja aproximación ‘flatland’ (tierra plana) que ha estado utilizando la comunidad científica por muchos años está fundamentalmente defectuosa”, dijo. “Robots que pueden volar o navegar en entornos con escaleras, rampas y todo tipo de elementos arquitectónicos interiores están un paso más cerca a realmente hacer algo útil. Y todo comienza con ser capaces de navegar”.

Reimpreso con permiso de MIT News.

Más información
http://web.mit.edu/ (en inglés)

Leave a Reply