Estimación de odometria visual a partir de secuencias de imágenes monoculares usando métodos de aprendizaje profundo no supervisado
Registro en:
instname:Pontificia Universidad Javeriana
reponame:Repositorio Institucional - Pontificia Universidad Javeriana
Autor
Soto Rios, Juan Nicolas
Institución
Resumen
— La determinación de la odometría es clave para que un robot pueda localizarse en el mundo, convirtiéndose en un componente de suma importancia principalmente para la tarea de navegación en robots móviles. También son usados como parte activa de modelos de SLAM para la determinación de la localización del robot.
La odometría y posterior localización se ha explorado usando encoders, IMUs, odometría visual, GPS, radares, Lidars, métodos con faros (beacons) y combinaciones de estos.
Cada una de estas aproximaciones tiene diferentes limitaciones y ventajas. Por ejemplo, los encoders solo aplican a robots con ruedas y son proclives a errores por deslizamiento. Por otro lado, los sensores Lidar se desempeñan muy bien en diferentes ambientes, pero su costo es relativamente alto comparado con las demás tecnologías mencionadas.
El presente trabajo presenta un modelo No Supervisado para la determinación de la odometria de un robot usando secuencias de imágenes monoculares. Para ello, se desarrolló una red convolucional que procesa parejas de imágenes consecutivas, entregando la traslación y rotación relativas entre las dos imágenes.
Usando el vector de posición que entrega el modelo y el mapa de profundidad de la imagen It obtenido usando un modelo preentrenado se sintetizó la imagen I’t+1 y comparando esta imagen generada con la imagen It+1 original se calculó el error que fue usado durante la fase de entrenamiento del modelo.