Tecnología España , Salamanca, Jueves, 02 de julio de 2015 a las 17:22

Nuevo sistema basado en imágenes para calcular el movimiento de un robot

La primera tesis doctoral defendida en el Parque Científico de la Universidad de Salamanca desarrolla una novedosa propuesta de odometría visual

JPA/DICYT La Universidad de Salamanca ha desarrollado un nuevo sistema que calcula el movimiento que realiza un robot a partir de las imágenes capturadas en tiempo real por una única cámara que lleva en su parte superior. Hasta ahora, solo era posible hacerlo procesando las imágenes más tarde o con robots de movimientos muy lentos y equipos informáticos avanzados de alto coste. El resultado de este trabajo del Grupo de Robótica de la Universidad de Salamanca (GROUSAL) se plasma en la tesis doctoral de Jesús F. Rodríguez-Aragón, dirigida por Vidal Moreno y Belén Curto y defendida hoy en el Parque Científico de la Universidad de Salamanca, la primera en estas instalaciones.


La localización en cada instante de tiempo es esencial para un robot móvil autónomo, un problema que ha sido tratado desde múltiples perspectivas. A la hora de afrontar los problemas de posicionamiento es común la utilización de diferentes sensores que proporcionan información directa sobre la localización del robot o sobre los cambios que se producen en el entorno del mismo.

Una alternativa es la odometría visual, un proceso mediante el que se calcula una estimación del movimiento realizado por un robot móvil o por un vehículo a partir de los datos capturados por su propio sistema de visión.

Según la información del Parque Científico de la Universidad de Salamanca recogida por DiCYT, la mayor parte de los algoritmos de odometría visual propuestos no trabajan en tiempo de ejecución, sino que los resultados se obtienen mayoritariamente offline, es decir, se toman las imágenes y se procesan posteriormente.

 

Otros sistemas trabajan en una frecuencia de toma de imágenes muy baja, lo que implica que se precisa un movimiento del robot muy lento, debido a que los algoritmos actuales de odometría visual conllevan cálculos muy pesados y de alta carga computacional. Por eso, para su correcta ejecución es necesario disponer de equipos informáticos de alto nivel, con un gran coste. Los sistemas de visión que utilizan suelen ser muy avanzados y costosos.

Muchas propuestas se basan en el cálculo del movimiento a partir de la estructura, esto es, el cálculo de la estructura en 3D a partir de una secuencia de imágenes capturadas en diferentes instantes de tiempo y, con ello, el cálculo del movimiento realizado.

 

En cambio, la propuesta de Jesús Rodríguez-Aragón, que además de ser miembro del grupo de investigación GROUSAL trabaja en la empresa TechTrid (Mega) del Parque Científico, se basa la estimación del movimiento que ha tenido lugar calculándolo como un giro sobre un punto denominado Centro Instantáneo de Rotación. Otros sistemas necesitan sensores internos para calcular el movimiento realizado por el robot, ya sea para calcular la velocidad del robot o para calcular los giros que han tenido lugar.


La tesis presenta un procedimiento de odometría visual capaz de realizar el cálculo del movimiento de un robot a partir de las imágenes capturadas por una única cámara que se encuentra sobre el robot. Además, es viable para su ejecución en tiempo real durante la navegación del robot haciendo uso de elementos computacionales domésticos.

A modo de caso de uso, se presenta también el diseño y el desarrollo de un sistema de localización basado en el filtro extendido de Kalman (EKF), que integra conjuntamente el sistema de odometría visual con el sistema de odometría de las ruedas, logrando de esta manera un sistema odométrico más robusto y fiable en diferentes entornos.