dc.contributor | Romero Cano, Victor Adolfo | |
dc.contributor | Universidad Autónoma de Occidente (UAO) | |
dc.creator | Escobar Montoya, Diego Alejandro | |
dc.creator | Rico Romero, Juan David | |
dc.date.accessioned | 2021-06-04T22:39:13Z | |
dc.date.accessioned | 2022-09-22T18:26:31Z | |
dc.date.available | 2021-06-04T22:39:13Z | |
dc.date.available | 2022-09-22T18:26:31Z | |
dc.date.created | 2021-06-04T22:39:13Z | |
dc.date.issued | 2021-05-28 | |
dc.identifier | https://hdl.handle.net/10614/13025 | |
dc.identifier | Universidad Autónoma de Occidente (UAO) | |
dc.identifier | Repositorio Educativo Digital | |
dc.identifier | https://red.uao.edu.co/ | |
dc.identifier.uri | http://repositorioslatinoamericanos.uchile.cl/handle/2250/3451268 | |
dc.description.abstract | El presente proyecto consistió en el desarrollo de un sistema de percepción capaz de localizar tanto métrica como topológicamente un robot móvil tipo Ackermann en ambientes semiestructurados. Este sistema de percepción se dividió en dos partes, la primera en la ubicación del robot métricamente por coordenadas cartesianas y la
y la segunda en la identificación de lugares del entorno de trabajo por visión computacional (redes neuronales convolucionales).
El primer sistema utilizó sensores propioceptivos como lo son el IMU y los encoders de los motores, con el fin de generar la localización métrica del modelo físico en un plano cartesiano. Asimismo, este sistema empleó la ubicación virtual del robot contenido en el simulador Gazebo, con el objetivo de estimar una “super” odometría con error pequeño respecto a la medida real del entorno; resaltando que la odometría final calculada por el sistema, utilizó un filtro de Kalman el cual generaba
la estimación en base al conjunto de información de la entradas (localización real y virtual).
Por otro lado, el segundo sistema empleó un tipo de red neuronal artificial capaz de identificar objetos en imágenes digitales. Esta red fue la CNN o red neuronal convolucional, la cual permitió la localización de objetos o lugares contenidos en una imagen digital. Adicionalmente, para la adquisición de datos de dicha red, se empleó una cámara monocular con transmisión de datos por puerto USB, de igual
manera fue utilizada para obtener imágenes de validación para el sistema topológico, cada uno de estos sistemas estuvo compuesto por una serie de programas y nodos de ROS, que al integrarse y complementarse con un entorno simulado (Gazebo) permitieron la unificación de sistemas (métrico y topológico).
Finalmente el objetivo de este proyecto, es servir como base para un robot guía de personas al interior del campus de la Universidad Autónoma de Occidente específicamente en el sótano dos, basados en una plataforma robótica tipo Ackermann ya existente en la universidad. | |
dc.language | spa | |
dc.publisher | Universidad Autónoma de Occidente (UAO) | |
dc.publisher | Ingeniería Mecatrónica | |
dc.publisher | Departamento de Automática y Electrónica | |
dc.publisher | Facultad de Ingeniería | |
dc.publisher | Cali | |
dc.relation | [1] Q. Lin, X. Liu and Z. Zhang, "Mobile Robot Self-LocalizationUsing Visual Odometry Based on eiling Vision," 2019 IEEE Symposium Series on Computational Intelligence (SSCI), 2019, pp. 1435-1439, doi: 10.1109/SSCI44817.2019.9003092. | |
dc.relation | [2] C. Lee, H. Lee, I. Hwang and B. Zhang, "Spatial Perception by Object-Aware Visual Scene Representation", Openaccess.thecvf.com, 2019. .[En línea]. Disponible en: https://openaccess.thecvf.com/content_ICCVW_2019/html/DL4VSLAM/Lee_Spatial_Perception_by_Object- Aware_Visual_Scene_Representation_ICCVW_2019_paper.html. | |
dc.relation | [3] A. Davison, "FutureMapping: The Computational Structure of Spatial AI Systems", arXiv.org, 2018. .[En línea]. Disponible en: https://arxiv.org/abs/1803.11288. | |
dc.relation | [4] J. L. Schonberger, J.-M. Frahm, "Structure-from-motion revisited", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4104-4113, 2016. | |
dc.relation | [5] C. Cadena, L. Carlone, H. Carrillo, Y. Latif, D. Scaramuzza, J. Neira, I. Reid, J. J. Leonard, "Past present and future of simultaneous localization and mapping: Toward the robust-perception age", IEEE Transactions on Robotics, vol. 32, no. 6, pp. 1309-1332, 2016. | |
dc.relation | [6] H. Durrant-Whyte, T. Bailey, "Simultaneous localization and mapping (SLAM): Part I", IEEE Robotics & Automation Magazine, vol. 13, no. 2, pp. 99-110, 2006. | |
dc.relation | [7] Pileun Kim, Jingdao Chen, Yong K. Cho,SLAM-driven robotic mapping and registration of 3D point clouds,Automation in Construction,Volume 89,2018,Pages 38-48,ISSN 0926-5805,https://doi.org/10.1016/j.autcon.2018.01.009. | |
dc.relation | [8] M. Olivares Ávila and J. Gallardo Arancibia, "sistema de localización autónoma para robots móviles basado en fusión de sensores propioceptivos", Revista Politécnica ISSN 2256-5353 (En línea), 2015. Disponible en: http://revistas.elpoli.edu.co/index.php/pol/article/download/621/597. | |
dc.relation | [9] L. Enciso Salas, "Diseño de un sistema de navegación autónomo para robots móviles usando fusión de sensores y controladores neuro difusos", Tesis.pucp.edu.pe, 2015. [En línea]. Disponible en: http://tesis.pucp.edu.pe/repositorio/handle/20.500.12404/6191. | |
dc.relation | [10] C. Rojas Cardenas, "Precalculo matematicas para el calculo", Academia.edu, 2010 [En línea]. Disponible en: https://www.academia.edu/38431347/Precalculo_matematicas_para_el_calculo | |
dc.relation | [11] K. Academy, "Integrales triples en coordenadas esféricas (artículo) | Khan Academy", Khan Academy, 2021. .[En línea]. Disponible en: https://es.khanacademy.org/math/multivariable-calculus/integrating-multivariablefunctions/ x786f2022:polar-spherical-cylindrical-coordinates/a/triple-integrals-inspherical-coordinates. | |
dc.relation | [12] D. Fisica aplicada III, Universidad de sevilla, "Coordenadas cilíndricas. Definición", Laplace.us.es, 2007. [En línea]. Disponible en: http://laplace.us.es/wiki/index.php/Coordenadas_cil%C3%ADndricas._Definici%C3 %B3n. | |
dc.relation | [13] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004. | |
dc.relation | [14] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004. | |
dc.relation | [15] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. 1 ed. Cambridge, London: The MIT Press, 2004. | |
dc.relation | [16] SIEGWART Roland, Nourbakhsh Illah R. Introduction to Autonomous Mobile Robots. Cambridge, London: The MIT Press, 2004. p25 | |
dc.relation | [17] V. Lidar, "HDL-64E Durable Surround Lidar Sensor | Velodyne Lidar", Velodyne Lidar, 2021. [En línea]. Disponible en: https://velodynelidar.com/products/hdl-64e/. | |
dc.relation | [18] Encoder ¿Como funciona? Y sus tipos: Como funciona un encoder [en linea] ingenieria mecafenix. .[En línea]. Disponible en: https://www.ingmecafenix.com/automatizacion/encoder/ | |
dc.relation | [19] "CSCI 2150 -- Digital Signals and Binary Numbers", Faculty.etsu.edu, 2021. [En línea]. Disponible en: https://faculty.etsu.edu/tarnoff/ntes2150/dig_bin/dig_bin.htm. | |
dc.relation | [20] Amaris Gonzalez, Marcos. (2009). Aplicacion en Scilab para el tratamiento de señales digitales con la transformación de Fourier fraccionaria: Filtro de Wiener fraccionario. 10.13140/RG.2.2.19520.94727. | |
dc.relation | 21]M. Cervantes, "Señales", Programas.cuaed.unam.mx, 2017. .[En línea]. Disponible en: https://programas.cuaed.unam.mx/repositorio/moodle/pluginfile.php/824/mod_reso urce/content/5/contenido/index.html. | |
dc.relation | [22] J. Rojas, "servomotores para arduino uno", Es.slideshare.net, 2018. [Online]. Available: https://es.slideshare.net/NelsonRojasGonzales/servomotores-paraarduino- uno. | |
dc.relation | [23] A.M Karadeniz, M. Alkayyali y P.T Szemes. “Modelling and Simulation of Stepper Motor For Position Control Using LabVIEW,”, Department of Mechatronics, University of Debrecen, Debrecen, Hungary, No. #1, En,7,2018.[En línea]. Disponible en: https://www.researchgate.net/Fig.ure/Schematic-view-of-a-steppermotor- with-three-teeth4_Fig.1_324261648 | |
dc.relation | [24] Robotic Operative System(Ros), (2020,Jul.10). ”Ros.org| Powering the world’s robots ”. [Internet]. Disponible en: https://www.ros.org/ | |
dc.relation | [25] AristaSur, (2020, Jul, 11). “Cómo funciona el Sistema de posicionamiento GPS”.[Internet]. Disponible en: https://www.aristasur.com/contenido/comofunciona- el-sistema-de-posicionamiento-gps | |
dc.relation | [26] M. Olinski, A. Gronowicz, M. Ceccarelli y D. Cafolla, “Human motion characterization using wireless inertial sensors,” Departamento de Biomedica, Mecatronica y teoria de mecanismos, Laboratorio de mecatrónica y robotica, Wroclaw University of Science and Technology and University of Cassino and South Latium, Wroclaw and Cassino, Poland and Italy, 2015. p. 329. Disponible en: https://www.researchgate.net/Fig.ure/IMU-sensor-with-a-scheme-of-the-measured- Euler-angles_Fig.5_308860567 | |
dc.relation | [27] G. Verhoeven, M. Wieser, C. Briese y M. Doneus, “Positioning in Time and Space – Cost-Effective exterior orientation for airborne archaeological photographs”, vias – Vienna Institute for Archaeological Science, LBI for Archaeological Prospection and Virtual Archaeology and Department of Geodesy and Geoinformation, University of Vienna and Vienna University of Technology, Vienna and Wien, Austria, 2013. p. 314. Disponible en: https://www.researchgate.net/Fig.ure/Three-axes-and-rotations-of-a-digital-stillcamera_ Fig.1_256325054 | |
dc.relation | [28] M. Hirz and B. Walzel, “Sensor and object recognition technologies for selfdriving cars ”, Graz University of Technology, Graz, Estiria, Austria, 2018. p. 6. Disponible en: https://www.researchgate.net/Fig.ure/Point-cloud-of-a-trafficsituation- delivered-by-LIDAR-10_Fig.8_322368082 | |
dc.relation | [29] stereo labs, (2020,Oct, 15). “ZED Stereo Camera| Stereolabs”. [Internet]. Disponible en: https://www.stereolabs.com/zed/ | |
dc.relation | [30] N. Saparkhojayev and S. Guvercin, “Attendance Control System based on RFID-technology”, Department of Systems Analysis and Management, Engineering Faculty, L.N.Gumilyov Eurasian National University and Suleyman Demirel University, Nur-sultán, Kazakhstan, 2012. p. 227. Disponible en: https://www.researchgate.net/Fig.ure/The-workflow-of-RFIDtechnology_ Fig.1_267404585 | |
dc.relation | [31] B. Choi, J. Lee, Ju. Lee and K. Park, “Distributed Sensor Network Based on RFID System for Localization of Multiple Mobile Agents”, Department of Electrical Engineering and Korea Institute of Machinery and Materials, KAIST, Daejeon, Korea (South), 2011. p. 3. Disponible en: https://www.researchgate.net/Fig.ure/Conceptof- the-sensor-network-based-on-the-RFID-system-for-localization-ofmultiple_ Fig.3_220279110 | |
dc.relation | [32] A. Islam, T. Hossan and Y. Min Jang, “Convolutional neural network schemebased optical camera communication system for intelligent Internet of vehicles”, Department of Electronics Engineering, Kookmin University, Seoul, Korea(South), 2018. p. 11. Disponible en: https://www.researchgate.net/Fig.ure/Distancecalculation- using-a-stereo-image-from-a-stereo-camera-and-b-systemplatform_ Fig.8_323782015 | |
dc.relation | [33] J. Ziegler, J. Gleichauf and C. Pfitzner, “RobotCup Rescue 2018 Team Description Paper AutonOHM”, Department of Electrical Engineering, TH Nuremberg Georg Simon Ohm, . Nuremberg, Bavaria, Germany, 2018. p. 4. Disponible en: https://www.researchgate.net/Fig.ure/Map-generated-by-the-ohmtsd- slam_Fig.2_326580040 | |
dc.relation | [34] S. Thrun, A. Bucken, W. Burgard, D. Fox, T. Frohlinghaus, D. Hennig, T. Hofmann, M. Krell and T. Schmidt, “Map Learning and High-Speed Navigation in RHINO”, Institut fur Informatik III and Computer Science Department, Universitat Bonn and Carnegie Mellon University, Bonn and Pittsburgh, North Rhine-Westphalia and Pensilvania, Germany and United Stated, 1996. P. 8. Disponible en: https://www.researchgate.net/publication/2436687_Map_Learning_and_High-Speed_Navigation_in_RHINO | |
dc.relation | [35] T. Bailey and H. Durrant-Whyte, "Simultaneous localization and mapping (SLAM): part II," in IEEE Robotics & Automation Magazine, vol. 13, no. 3, pp. 108- 117, Sept. 2006. Disponible en: https://ieeexplore.ieee.org/document/1678144 | |
dc.relation | [36] F. Martin, V. Matellán, P. Barrera y J. M. Cañas, “Localización basada en lógica y filtros de Kalman para robots con patas”, Grupo de Robótica, Universidad Rey Juan Carlos, Móstoles, Madrid, España, 2014. p. 7. Disponible en: https://www.researchgate.net/Fig.ure/Fig.-5-Modelo-de-movimiento-basado-en-laodometria_Fig.5_233792295 | |
dc.relation | [37] ithub,Udacity(2020, Oct, 20). “robot_pose_ekf package”. [Internet]. Disponible en: https://github.com/udacity/robot_pose_ekf | |
dc.relation | [38] Z. Alom, T. M. Taha, C. Yakopcic, S. Westberg, P. Sidike, S. Nasrin, M. Hasan, B. C. Van Essen, A. S. Awwal and V. K. Asari, “A State-of-the-Art Survey on Deep Learning Theory and Architectures”, Department of Electrical and Computer Engineering, Department of Earth and Atmospheric Sciences, Comcast Labs and Lawrence Livermore National Laboratory, University of Dayton, Saint Louis University, Dayton, washington dc, Livermore, Ohio, District of Columbia and California, United States, 2019. p. 11. Disponible en: https://www.researchgate.net/Fig.ure/The-overall-architecture-of-the-Convolutional- Neural-Network-CNN-includes-an-input_Fig.4_331540139 | |
dc.relation | [39] gazebosim, (2020, Nov, 1). “Gazebo| Robot simulation made easy”. [Internet]. Disponible en: http://gazebosim.org/ | |
dc.relation | [40] github, noetic-devel(2020, Nov, 5). “ros-visualization/rviz: ROS 3D Robot Visualizer”. [Internet]. Disponible en: https://github.com/ros-visualization/rviz | |
dc.relation | [41] H. A. Al-Barazanchi, H. Qassim and A. Verma, “Residual CNDS”, Department of Computer Science, University California, Fullerton, California, United States,2016, p. 2. Disponible en: https://www.researchgate.net/Fig.ure/Residual-Connection- 22_Fig.2_305994981 | |
dc.relation | [42] "ResNet (34, 50, 101): Residual CNNs for Image Classification Tasks", Neurohive.io,Saint-Petersburg, Vyborgskaya nab, Russia, Jan, 23, 2019. [En línea]. Disponible en: https://neurohive.io/en/popular-networks/resnet/. | |
dc.relation | [43] "ResNet (34, 50, 101): Residual CNNs for Image Classification Tasks", Neurohive.io,Saint-Petersburg, Vyborgskaya nab, Russia, Jan, 23, 2019. [En línea]. Disponible en: https://neurohive.io/en/popular-networks/resnet/. | |
dc.rights | https://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.rights | info:eu-repo/semantics/openAccess | |
dc.rights | Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) | |
dc.rights | Derechos reservados - Universidad Autónoma de Occidente, 2021 | |
dc.subject | Ingeniería Mecatrónica | |
dc.subject | Ackermann | |
dc.subject | Sensor | |
dc.subject | Semiestructurados | |
dc.subject | Propioceptivo | |
dc.title | Desarrollo de un sistema de percepción robótica para la localización métrica y topológica en ambientes semi-estructurados | |
dc.type | Trabajo de grado - Pregrado | |