Crean tecnología para navegación autónoma de robots de exploración planetaria
El Laboratorio de Investigación en Procesamiento Digital de Imágenes y Visión por Computador de la UCR (IPCV-LAB) creó un nuevo procedimiento matemático que podría facilitar la navegación autónoma de robots en planetas lejanos.
Este algoritmo permite extraer de una única señal digital de video el movimiento tridimensional efectuado por un vehículo no tripulado (robot) al desplazarse sobre una superficie planetaria en exploración.
Fue desarrollado por el Dr. Geovanni Martínez Castillo, investigador de la Escuela de Ingeniería Eléctrica de la Universidad de Costa Rica, Premio Nacional de Tecnología Clodomiro Picado Twight 2002 y Premio al Investigador de la UCR 2010.
Este método se denomina odometría visual monocular y permite estimar el movimiento tridimensional efectuado por un robot al desplazarse por una superficie planetaria a partir del análisis de una secuencia de imágenes digitales de la superficie proporcionada por una cámara de video monocular unida a su estructura.
Los vehículos no tripulados de seis ruedas con suspensión “rocker-bogie” “Opportunity” y “Curiosity” que utiliza actualmente la “National Aeronautics and Space Administration” (NASA) en la exploración de la superficie del planeta Marte, se mueven en forma autónoma a lo largo de trayectorias que son trazadas mediante comandos que reciben desde la Tierra una vez al día.
Para mantener su curso sobre la trayectoria trazada, el robot registra el número de veces que giran sus ruedas, a esto se le denomina odometría mecánica o de ruedas.
Desafortunadamente, los expertos de la NASA han observado que las ruedas de dichos robots tienden a resbalarse sobre arena suelta (la cual es muy común en la superficie del planeta Marte), especialmente en superficies inclinadas, e incluso se hunden en terreno arenoso mientras giran, provocando en algunos casos que se desvíe de la ruta trazada sin cumplir el objetivo establecido.
Para resolver este problema, la NASA incorporó en sus robots un algoritmo de odometría visual estereoscópica, el cual permite estimar el movimiento que ha seguido el robot al desplazarse sobre la superficie marciana a partir del análisis decorrespondencias entre puntos característicos de la superficie planetaria encontrados en pares consecutivos de imágenes
Estas imágenes las captura una cámara de videoestereoscópica unida a la estructura del robot. Con el movimiento estimado se calcula la trayectoria seguida y se compara con la que se le trazó al robot y si hay diferencia, se corrige el rumbo del vehículo.
Una cámara de video estereoscópica es un arreglo de dos cámaras de video monoculares, colocadas una a la par de la otra, cuya posición y orientación relativa es conocida con anterioridad.
Ese algoritmo fue propuesto en 1980 por el austriaco Hans P. Moravec de la Universidad de Stanford (EEUU), y desde entonces su desempeño ha sido mejorado por medio de numerosas contribuciones científicas, hasta que finalmente se aplicó en tiempo real en los robots gemelos “Spirit” y “Opportunity”, y más recientemente en el “Curiosity”.
El aporte del Dr. Martínez consistió en desarrollar un nuevo algoritmo de odometría visual, el cual es capaz de estimar el movimiento tridimensional efectuado por el robot al desplazarse por la superficie planetaria a partir del análisis de las diferencias de intensidad entre imágenes consecutivas de una secuencia de imágenes digitales, las cuales son capturadas por una única cámara de video monocular unida a su estructura.
La motivación de esta investigación ha sido mostrar a la comunidad científica internacional, que el movimiento tridimensional de un robot terrestre o volador para la exploración planetaria también se puede estimar en forma precisa y confiable a partir de una sola señal de video capturada por una cámara de video monocular (de ahí su nombre de odometría visual monocular),
Para ello se evalúan las diferencias de intensidad entre imágenes consecutivas, como una alternativa a la odometría visual estereoscópica tradicional que estima el movimiento a partir de dos señales de video capturadas por un arreglo de dos cámaras de video monoculares (cámara estereoscópica), evaluando para ello correspondencias entre puntos característicos de la superficie planetaria encontrados en pares consecutivos de imágenes.
El investigador propone fusionar los resultados de este algoritmo con aquellos obtenidos con el algoritmo que utiliza la NASA (odometría visual estereoscópica), para obtener un mejor estimado del movimiento del robot, ya que en determinadas condiciones o superficies es posible que uno funcione mejor que el otro.
“La idea es que este algoritmo se pueda usar en forma paralela con el que tiene la NASA y que mediante técnicas de fusión de sensores se puedan combinar ambos resultados para lograr así un sistema de odometría visual más preciso, confiable y robusto”, explicó el investigador.
El Dr. Martínez considera que disponer de un algoritmo con la capacidad de estimar el movimiento tridimensional de un robot con una sola cámara de video en vez dos, podría jugar un papel muy importante en futuras misiones espaciales donde se utilicen robots muy pequeños.
Mencionó como por ejemplo los insectos voladores robóticos (“entomopters”), que ofrecen una gran maniobrabilidad en vuelo lento en condiciones de baja densidad atmosférica como la marciana, pero que brindan muy poca capacidad de carga y tienen muchas limitaciones de espacio y suministro de energía.
Asimismo, continuó el Dr. Martínez, el menor peso, tamaño y consumo de energía que ofrece esta nueva tecnología se podría traducir también en un menor costo por misión.
Actualmente el costo de colocar un kilo de material en órbita alrededor de la tierra oscila entre $10 mil y $50 mil dólares. Una misión como la del “Curiosity” tiene un costo total cercano a los $2.5 billones de dólares.
La odometría visual monocular tiene múltiples aplicaciones. El investigador recordó que la odometría visual estereoscópica desarrollada inicialmente para la exploración espacial, actualmente se utiliza en la gran mayoría de los robots autónomos del mundo.
Las investigaciones del Dr. Martínez han sido muy bien recibidas por la comunidad científica internacional. Incluso en enero pasado fue invitado a participar en el “IEEE Workshop on Robot Vision”, en Tampa, Florida, Estados Unidos. Esta actividad fue organizada por el “ComputerSociety” del “Insitute of Electrical and ElectronicsEngineers” (IEEE).
La ponencia fue seleccionada para presentarse en forma oral (solo el 22% de los trabajos aceptados se expusieron oralmente), lo cual es un indicador de la calidad de labor científica que realiza el Laboratorio de Investigación en Procesamiento Digital de Imágenes y Visión por Computador.
De acuerdo con el investigador, a pesar de que hasta ahora las pruebas que se han hecho con simulaciones son muy satisfactorias, aún se requiere realizar estudios de campo para validar su desempeño en un robot real.
Esta validación ayudaría a impactar aún más la comunidad científica internacional, haciendo que la Universidad de Costa Rica avance un paso más hacia la consecución de la meta que se ha propuesto el IPCV-LAB a mediano plazo, que es convertirse en una potencia mundial en el área de odometría visual para robótica espacial,
El Laboratorio busca hacer contribuciones que puedan ser tomadas en cuenta e implementadas en la nueva generación de robots de exploración planetaria que están siendo desarrollados actualmente por NASA, European Space Agency (ESA) y Canadian Space Agency (CSA).
En razón de la importancia de este proyecto, la Vicerrectoría de Investigación decidió apoyar el Laboratorio con la compra de un vehículo terrestre no tripulado Husky A200, que tiene un costo de $13.500 dólares.
Se espera que el vehículo llegue al país en los próximos meses. Una vez que esté en el Laboratorio, será equipado con todo el instrumental necesario para realizar pruebas de campo, aproximadamente un año después se podrían estar haciendo las primeras pruebas.
Nota tomada del portal de la Investigacion UCR