dc.contributorRomero Cano, Victor
dc.contributorUniversidad Autónoma de Occidente (UAO)
dc.creatorHincapié Barrera, Jeick
dc.date.accessioned2021-08-04T16:12:27Z
dc.date.accessioned2022-09-22T18:46:46Z
dc.date.available2021-08-04T16:12:27Z
dc.date.available2022-09-22T18:46:46Z
dc.date.created2021-08-04T16:12:27Z
dc.date.issued2021-07-16
dc.identifierhttps://hdl.handle.net/10614/13131
dc.identifierUniversidad Autónoma de Occidente
dc.identifierRepositorio Educativo Digital
dc.identifierhttps://red.uao.edu.co/
dc.identifier.urihttp://repositorioslatinoamericanos.uchile.cl/handle/2250/3458346
dc.description.abstractEste proyecto para optar al título de ingeniero mecatrónico presenta un Sistema de Navegación Autónoma (ADS) basado en la plataforma Duckietown. El sistema le permite a un robot diferencial, el cual tiene una cámara monocular instalada, identificar objetos de interés en un ambiente urbano como lo son semáforos, peatones, señales de tránsito, vehículos y señalizaciones en la vía y tomar decisiones respecto a cómo navegar en una intersección tipo T y en una intersección controlada por semaforización. La principal característica de este sistema es que integra algoritmos de inteligencia artificial y aprendizaje de máquina junto con algoritmos de planeación clásica como Rapid-exploring random tree. Este sistema se basa en la guía NHTSA para la construcción de sus elementos fundamentales, la detección de objetos (OEDR) y el control del vehículo. El detector de objetos se obtuvo por un proceso de entrenamiento, en el cual se le deben proporcionar muestras de las imágenes y de los objetos a detectar a un modelo de red neuronal de la librería Tensorflow. Estas imágenes se consiguieron a partir de una grabación de la vista del robot diferencial en la plataforma de ambiente urbano mientras era controlado remotamente y fue programado en su totalidad en Python. Para el control del vehículo se diseñó un algoritmo que recibe los datos proporcionados por el detector de objetos y por otros subsistemas del vehículo y basados en las reglas de tráfico del dominio del diseño de operación, toma decisiones sobre cómo navegar la intersección. Para la construcción de este algoritmo se utilizaron las librerías de Duckietown las cuales permiten hacer un diseño modular y totalmente compatible con la plataforma. Una vez diseñado el sistema, se utilizó el software Docker para compilar el ADS en el robot diferencial y realizar pruebas de funcionamiento en el robot, con lo cual se obtuvo un tiempo de detección de objetos de menos de 1 segundo y un desempeño destacado en la ejecución de las intersecciones, logrando así un sistema automatizado de navegación autónoma a escala en el software ROS, el cual es usado en robótica a nivel mundial.
dc.description.abstractThis project to qualify for the title of mechatronic engineer presents an Autonomous Driving System (ADS) that consists of a software application based on the Duckietown platform, designed to identify objects of interest in an urban environment such as traffic lights, pedestrians, traffic signals, vehicles and signalling on the road and making decisions related to how to navigate a T-type intersection and an intersection controlled by traffic lights, by means of a differential robot, which has a monocular camera installed. The main feature of this system is that it integrates artificial intelligence and machine learning algorithms together with classical robotics algorithms such as Rapid-explore random tree. This system is based on the NHTSA guide for building its fundamental elements, Object Detection (OEDR) and Vehicle Control. The object detector was obtained by a training process, in which samples of the images and objects to be detected must be provided to a neural network model from the Tensorflow library. These images were obtained from a recording of the view of the differential robot on the urban environment platform while it was controlled remotely and was programmed entirely in Python. For the control of the vehicle, an algorithm was designed that receives the data provided by the object detector and by other vehicle subsystems and based on the traffic rules of the operation design domain, makes decisions about how to navigate the intersection. For the design of this algorithm, the Duckietown libraries were used, which allow a modular design that is fully compatible with the platform. Once the system was designed, the Docker software was used to compile the ADS in the differential robot and perform functional tests on the robot, with which an object detection time of xxx was obtained and an outstanding performance in the execution of the intersections, thus achieving an automated autonomous navigation system at scale in the ROS software, which is used in robotics worldwide
dc.languagespa
dc.publisherUniversidad Autónoma de Occidente (UAO)
dc.publisherIngeniería Mecatrónica
dc.publisherDepartamento de Automática y Electrónica
dc.publisherFacultad de Ingeniería
dc.publisherCali
dc.relationABADI, Martín. Et. al. TensorFlow: Large-scale machine learning on heterogeneous systems. [En línea] 2015. [Consultado en abril de 2020] Software Disponible en: tensorflow.org.
dc.relationAGENCIA NACIONAL DE SEGURIDAD VIAL. Observatorio general de seguridad vial. [En línea] Colombia. 2018. [Consultado el 20 de octubre de 2020]. Disponible en: https://ansv.gov.co/es/observatorio
dc.relationAI REDACTOR. Ejemplos de Machine Learning - usos y aplicaciones [En línea]. VEX SOLUCIONES. (28 de noviembre de 2018). [Consultado el 1 de octubre de 2019]. Disponible en internet: https://www.vexsoluciones.com/inteligenciaartificial/ ejemplos-del-machine-learning-usos-y-aplicaciones/
dc.relationAYACHI, R. et al. Traffic Signs Detection for Real-World Application of an Advanced Driving Assisting System Using Deep Learning. [En línea] 2020. Neural Process Lett 51, 837–851. [Consultado en noviembre de 2020] Disponible en: https://doi.org/10.1007/s11063-019-10115-8
dc.relationBABER, Jhonatan. Et.al. Cooperative autonomous driving: intelligent vehicles sharing city roads. [En línea]. 2005. IEEE Robotics and Automation Magazine, vol.12, no.1, pp. 44-49, 2005. (Pubitemid 40583691). [Consultado en abril del 2020] Disponible en: https://ieeexplore.ieee.org/document/1411418
dc.relationBHARADHWAJ, Homanga A Data-Efficient Framework for Training and Sim-to-Real Transfer of Navigation Policies.[En línea] 2019 International Conference on Robotics and Automation (ICRA), 782-788.[Consultado en octubre de 2020] Disponible en: https://arxiv.org/abs/1810.04871 BMW.
dc.relationOverview of the main driver assistance systems. [En línea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.bmw.com/en/innovation/the-main-driver-assistance-systems.html
dc.relationBORA, Dibya. GUPTA, Anil y KHAN, Fayaz. Comparing the Performance of L*A*B* and HSV Color Spaces with Respect to Color Image Segmentation. [En línea] 2015. ArXiv, abs/1506.01472. [Consultado en agosto de 2020] Disponible en: https://arxiv.org/abs/1506.01472
dc.relationBOUTON, Maxime; COSGUN, Akansel y KOCHENDERFER, Mykel J. Belief State Planning for Autonomously Navigation Urban Intersections. [En linea] IEEE Intelligent Vehicles Symposium (IV). Redondo Beach, CA, USA. 2017. [consultado en Junio 11 2019] Disponible en: https://arxiv.org/pdf/1704.04322.pdf
dc.relationBROWNLEE, Jason. Supervised and Unsupervised Machine Learning Algorithms. [blog]. Machine Learning Mastery. Vermont Victoria, Australia. Agosto 12 de 2019. Párr 4. [Consultado el 23 de agosto de 2020] Disponible en: https://machinelearningmastery.com/supervised-and-unsupervised-machinelearning- algorithms/
dc.relationCITO, Jürgen. FERME, Vincenzo. GALL, Harald. Using Docker Containers to Improve Reproducibility in Software and Web Engineering Research. [En línea]. IEEE/ACM 38th International Conference on Software Engineering Companion (ICSE-C), Austin, TX, USA, 2016, pp. 906-907. [Consultado en abril de 2020] Disponible en: https://ieeexplore.ieee.org/document/7883438
dc.relationCOCO CONSORTIUM. COCO. Common objects in context. [en linea]. USA. 2015. [Consultado el 23 de abril de 2020]. Disponible en: https://cocodataset.org/#home
dc.relationDAI, Jifeng. Et. al. R-FCN: object detection via region-based fully convolutional networks. [En línea] 2016. In: Advances in neural information processing systems 29: annual conference on neural information processing systems 2016, 5–10 Dec 2016, Barcelona, Spain, pp 379–387 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1605.06409
dc.relationDEPARTAMENTO DE SEGURIDAD VIAL, Señales Horizontales - Instructivo de aplicación, [en línea]. [Consultado el 26 de septiembre de 2019]. Disponible en Internet: http://www.vialidad.cl/areasdevialidad/seguridadvial/Documents/lineas_trans_DEM ARCACIONES_5.pdf
dc.relationDIAZ-CABRERA, Moises. CERRI, Pietro. MEDICI, Paolo. Robust real-time traffic light detection and distance estimation using a single camera. [En línea] 2015. Expert Syst Appl 42(8):3911–3923. [Consultado en agosto de 2020] Disponible en: https://www.sciencedirect.com/science/article/abs/pii/S0957417414008161
dc.relationDUAN, Kaiwen et al. CenterNet: Keypoint Triplets for Object Detection. [En línea]. 2019. IEEE/CVF International Conference on Computer Vision (ICCV) (2019): 6568- 6577. [Consultado el día 21 de junio de 2021] disponible en: https://arxiv.org/abs/1904.08189
dc.relationDUCKIETOWN. duckietown-intnav: Intersection Navigation for Duckietown. [en lìnea]. GitHub.- duckietown/duckietown-intnav. 2019. [consultado el 24 de septiembre de 2019]. Disponible en: https://github.com/duckietown/duckietownintnav/commits/master
dc.relationEXPERT SYSTEM S.P.A. What is Machine Learning? A definition [en línea]. 2019. Machine Learning. Rockville, Maryland, E.E.U.U. 7 de marzo de 2017. [Consultado el 24 de septiembre de 2019]. Disponible en: https://www.expertsystem.com/machine-learning-definition/.
dc.relationFERGUSON, Dave. HOWARD, Thomas y LIKHACHEV, Maxim. Motion planning in urban environments: Part I. [En línea] 2008. IEEE/RSJ International Conference on Intelligent Robots and Systems, Nice, France, pp. 1063-1069doi: 10.1109/IROS.2008.4651120. [Consultado en agosto de 2020] Disponible en: https://ieeexplore.ieee.org/document/4651120
dc.relationFERGUSON, Dave. HOWARD, Thomas y LIKHACHEV, Maxim. Motion planning in urban environments: Part II. [En línea] 2008. IEEE/RSJ International Conference on Intelligent Robots and Systems, Nice, France, 2008, pp. 1070-1076, doi: 10.1109/IROS.2008.4651124. [Consultado en agosto de 2020] Disponible en: https://ieeexplore.ieee.org/document/4651124
dc.relationFORD GLOBAL TECNOLOGIES, LCC. Autonomous Driving at Intersections Based on Perception Data. Inventor: A. ELIZABETH MICKS, H. BANVAIT, J. JAIN, B. REIFF. US 9.983.591 B2 . United States Patent. Mayo 29 de 2018.
dc.relationG. VAN ROSSUM, Python tutorial, Technical Report CS-R9526, Centrum voor Wiskunde en Informatica (CWI), [En línea] Amsterdam, 1995. [Consultado en abril de 2020] Disponible en: http://lib.21h.io/library/G7B3RFY7/download/GBMFTU3C/Python_3.8.3_Docs_.pdf
dc.relationHAN, Cen., GAO, Guangyu. y ZHANG, Yu. Real-time small traffic sign detection with revised faster-RCNN. [En línea]. 2019. Multimed Tools Appl 78, 13263–13278 [Consultado en abril de 2019]. Disponible en: https://doi.org/10.1007/s11042-018- 6428-0
dc.relationHOWARD, Andrew, et al. MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications [en línea].Google Inc. 2017. p. 1-9. arXiv:1704.04861 [Consultado el 20 de Octubre de 2019]. Disponible en: https://arxiv.org/abs/1704.04861v1.
dc.relationHU, Yeping, ZHAN W. y TOMIZUKA M. Probabilistic Prediction of Vehicle Semantic Intention and Motion. [en línea] En: 2018 IEEE Intelligent Vehicles Symposium (IV), 307-313.[consultado el 22 de junio de 2021] disponible en: https://arxiv.org/abs/1804.03629
dc.relationHUANG, Gao. Et. al. Densely connected convolutional networks. [En línea] 2017 In: 2017 IEEE conference on computer vision and pattern recognition, CVPR 2017, Honolulu, HI, USA, 21–26 July 2017, pp 2261–2269 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1608.06993
dc.relationHUANG, J. Tensorflow/Models. [En línea] GitHub. 2020 [Consultado el 18 2020]. Disponible en: https://github.com/tensorflow/models/tree/master/research/object_detection
dc.relationJ. Holzinger, P. Tkachenko, G. Obereigner and L. d. Re, "Context Aware Control of ADAS," 2020 American Control Conference (ACC), Denver, CO, USA, 2020, pp. 2288-2293, doi: 10.23919/ACC45564.2020.9147710
dc.relationKAI, Arras. Introduction to Mobile Robotics [Diapositivas]. UNI FREIBURG, Alemania, 2011. [Consultado el día 28 de octubre de 2019] disponible en: https://www.yumpu.com/en/document/view/31487650/welcome-introduction-tomobile- robotics
dc.relationKHOURY, John. Et al. A practical decentralized access protocol for autonomous vehicles at isolated under-saturated intersections [En línea].2019. Journal of Intelligent Transportation Systems, 23:5, 427-440, DOI:10.1080/15472450.2018.1536859 [Consultado en agosto de 2020] Disponible en:https://www.tandfonline.com/doi/abs/10.1080/15472450.2018.1536859?journal Code=gits20
dc.relationLIAM, Paull et al., "Duckietown: An open, inexpensive and flexible platform for autonomy education and research," 2017 IEEE International Conference on Robotics and Automation (ICRA), Singapur, 2017, pp. 1497-1504, doi: 10.1109/ICRA.2017.7989179. Disponible en: http://michalcap.net/wpcontent/ papercite-data/pdf/paull_2017.pdf
dc.relationLIANG, Z. et al. Traffic sign detection and recognition based on pyramidal convolutional networks. [En línea] 2020. Neural Comput & Applic 32, 6533–6543. [Consultado en octubre de 2020] Disponible en: https://doi.org/10.1007/s00521-019- 04086-z
dc.relationLIKHACHEV, Maxim, FERGUSON, Dave. Planning Long Dynamically Feasible Maneuvers for Autonomous Vehicles. [En línea] The International Journal of Robotics Research. 2009;28(8):933-945. doi:10.1177/0278364909340445. [Consultado en octubre de 2020] Disponible en: https://doi.org/10.1177/0278364909340445
dc.relationLONG, Jonathan, SHELHAMER, Evan. DARRELL, Trevor. Fully convolutional networks for semantic segmentation. [En línea] 2015. In: IEEE conference on computer vision and pattern recognition, CVPR 2015, Boston, MA, USA, 7–12 June 2015, pp 3431–3440 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1411.4038
dc.relationLUNDH, Fredrick. CLARK, Alex. Pillow. [en linea] USA. 2019. [Consultado el 25 de octubre de 2020]. Disponible en: https://pillow.readthedocs.io/en/stable/
dc.relationMENDIETA, Victor Alonso. Detección y reconocimiento de semáforos por visión artificial [en línea]. Proyecto de fin de carrera de Ingeniería Industrial Especialidad en Automática y Electrónica Industrial. Universidad Carlos III de Madrid. Escuela Politécnica Superior. Departamento de Ingeniería de Sistemas y Automática. 2013. [Consultado el 1 de octubre de 2019]. Disponible en internet: https://core.ac.uk/download/pdf/29405005.pdf.
dc.relationMINTRANSPORTE, et. al. Plan nacional de seguridad vial Colombia 2011-2021. [En linea] Colombia, 2011. [Consultado el 27 de Octubre de 2020] Disponible en: https://ansv.gov.co/sites/default/files/Documentos/Agencia/mipg/1-5-5-docs-einformes/ 1%20-%205%20- %205%20%2029%20Plan%20Nacional%20de%20Seguridad% 20Vial/Plan%20Nacional%20de%20Seguridad%20Vial.pdf
dc.relationMUSA, Angky. ADIWIJAYA, Kang y UTAMA, Dody. Segmentation Image Recoloring Based On K-means Clustering Algorithm As A Tool for Partial Color-Blind People. [En línea] 2019. Phys.: Conf. Ser. 1192 012012. [Consultado en agosto de 2020] Disponible en: https://iopscience.iop.org/article/10.1088/1742-6596/1192/1/012012
dc.relationNATIONAL TRANSPORTATIONS SAFETY BOARD. Preliminary report Highway hwy18mh010. [En línea] USA. 2018. [Consultado el 16 de noviembre de 2020] Disponible en: https://www.technischweekblad.nl/files/46e4a0ca1a0bf2cb04f4751d0af26913.pdf
dc.relationNHTSA. AUTOMATED DRIVING SYSTEMS, A Vision for Safety [Diapositivas]. USA, 2017. [Consultado el día 2 de octubre de 2019] disponible en: https://www.nhtsa.gov/sites/nhtsa.dot.gov/files/documents/13069aads2.0_090617_v9a_tag.pdf
dc.relationNHTSA. Automated Vehicles for Safety. [en línea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.nhtsa.gov/technologyinnovation/ automated-vehicles-safety
dc.relationNHTSA. TRAFFIC SAFETY FACTS. Crash Stats. Critical Reasons for Crashes Investigated in the National Motor Vehicle Crash Causation Survey. [En línea] USA. 2015.[Consultado el 20 de noviembre de 2020] Disponible en: https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812115
dc.relationOLLERO, Anibal. Control de robot móviles. [libro] Robótica. manipuladores y robots móviles. Ed. 1. Barcelona (España). Marcombo , S.A. 2001.
dc.relationPASCAL VOC (PASCAL Visual Object Classes Challenge). [en linea]. USA. 2007. [Consultado el 21 de junio de 2020]. Disponible en: https://paperswithcode.com/dataset/pascal-voc QUIGLEY, Morgan. Et al. ROS: an open-source Robot Operating System. [En línea] 2009. ICRA Workshop on Open Source Software. 3. [Consultado en abril de 2020] Disponible en: https://www.ros.org
dc.relationREDMON, Joseph et al. “You Only Look Once: Unified, Real-Time Object Detection.” [En línea]. 2016. IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2016): 779-788.[Consultado el día 21 de Junio de 2021] Disponible en: https://arxiv.org/abs/1506.02640
dc.relationROS.ORG. Rosbag package summary. [en linea] USA. 2019. [Consultado el 21 de octubre de 2020]. Disponible en: http://wiki.ros.org/rosbag
dc.relationSIMONYAN, Karen, ZISSERMAN, Andrew. Very Deep Convolutional Networks for Large-Scale Image Recognition. [En línea]. 2015 Visual Geometry Group, Department of Engineering Science, University of Oxford. CoRR. [Consultado el 20 de enero de 2021]. Disponible en: https://arxiv.org/pdf/1409.1556.pdf
dc.relationSOKÈMI RENÉ, Emmanuel Datondji. Et al. A Survey of Vision-Based Traffic Monitoring of Road Intersections. [En linea]. vol. 17, no. 10, pp. 2681-2698, Oct. 2016, doi: 10.1109/TITS.2016.2530146.[Consultado en octubre de 2020] Disponible en: https://ieeexplore.ieee.org/document/7458203
dc.relationTAN, Mingxing. QUOC V. Le. “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks.” [En línea] 2020. [Consultado el 20 de enero de 2021]. Disponible en: https://arxiv.org/pdf/1905.11946.pdf
dc.relationTETTAMANTI, Tamás; VARGA, István y SZALAY, Zsolt. Impacts of Autonomous Cars from a Traffic Engineering Perspective. [en línea] En: Periodica Polytechnica Transportation Engineering. 2016. vol. 44, no. 4, pp. 244-250 [consultado: 23 de septiembre de 2019] disponible en internet: https://pp.bme.hu/tr/article/view/9464/7146
dc.relationUÇAR, Ayşegül y DEMIR, Yakup y GÜZELIŞ, Cüneyt. Object recognition and detection with deep learning for autonomous driving applications. [En línea] 2017. SIMULATION. 93. 003754971770993. 10.1177/0037549717709932. [Consultado en agosto de 2020] Disponible en: https://journals.sagepub.com/doi/10.1177/0037549717709932
dc.relationVOLVO. Funciones de vehículo. [en linea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.volvocars.com/pe/support/article/4c4380adf3f56bc8c0a801510c91778c
dc.relationWAYMO. Waymo’s Safety Methodologies and Safety Readiness Determinations. [En linea]. USA. 2020 P. 22-24. [Consultado el 10 de noviembre de 2020] Disponible en: https://storage.googleapis.com/sdc-prod/v1/safety-report/Waymo-Safety- Methodologies-and-Readiness-Determinations.pdf
dc.relationXIAO, Yao. Vehicle Detection in Deep Learning [En línea]. 2019. ArXiv, abs/1905.13390. [Consultado en octubre de 2020]. Disponible en: https://arxiv.org/ftp/arxiv/papers/1905/1905.13390.pdf
dc.relationXU, Hao., SRIVASTAVA, Gautam. Automatic recognition algorithm of traffic signs based on convolution neural network. [En línea] 2020. Multimed Tools Appl 79, 11551–11565. [Consultado en Diciembre de 2020] Disponible en: https://doi.org/10.1007/s11042-019-08239-z
dc.relationYI. Xiao, CODEVILLA, Felipe, GURRAM, Akhil, Et. al, "Multimodal End-to-End Autonomous Driving," in IEEE Transactions on Intelligent Transportation Systems, doi: 10.1109/TITS.2020.3013234.
dc.relationYILMAZ, Asim. A Vehicle Detection Approach using Deep Learning Methodologies. [En línea] 2018. ArXiv, abs/1804.00429. [Consultado en agosto de 2020] Disponible en: https://arxiv.org/abs/1804.00429
dc.relationZHENNING, Li, Et al. Temporal-spatial dimension extension-based intersection control formulation for connected and autonomous vehicle systems.[En línea] Transportation Research Part C: Emerging Technologies, Volume 104, 2019, Pg 234-248, ISSN 0968-090X, [Consultado en septiembre de 2020] https://doi.org/10.1016/j.trc.2019.05.003.
dc.rightshttps://creativecommons.org/licenses/by-nc-nd/4.0/
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightsAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
dc.rightsDerechos Reservados - Universidad Autónoma de Occidente, 2021
dc.subjectIngeniería mecatrónica
dc.subjectSistema de navegación autónoma
dc.subjectOEDR
dc.subjectAprendizaje de Máquina
dc.subjectNHTSA
dc.subjectDominio de diseño de operación
dc.subjectROS
dc.titleDesarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown
dc.typeTrabajo de grado - Pregrado


Este ítem pertenece a la siguiente institución