dc.contributor | Romero Cano, Victor | |
dc.contributor | Universidad Autónoma de Occidente (UAO) | |
dc.creator | Hincapié Barrera, Jeick | |
dc.date.accessioned | 2021-08-04T16:12:27Z | |
dc.date.accessioned | 2022-09-22T18:46:46Z | |
dc.date.available | 2021-08-04T16:12:27Z | |
dc.date.available | 2022-09-22T18:46:46Z | |
dc.date.created | 2021-08-04T16:12:27Z | |
dc.date.issued | 2021-07-16 | |
dc.identifier | https://hdl.handle.net/10614/13131 | |
dc.identifier | Universidad Autónoma de Occidente | |
dc.identifier | Repositorio Educativo Digital | |
dc.identifier | https://red.uao.edu.co/ | |
dc.identifier.uri | http://repositorioslatinoamericanos.uchile.cl/handle/2250/3458346 | |
dc.description.abstract | Este proyecto para optar al título de ingeniero mecatrónico presenta un Sistema de Navegación Autónoma (ADS) basado en la plataforma Duckietown. El sistema le permite a un robot diferencial, el cual tiene una cámara monocular instalada, identificar objetos de interés en un ambiente urbano como lo son semáforos,
peatones, señales de tránsito, vehículos y señalizaciones en la vía y tomar decisiones respecto a cómo navegar en una intersección tipo T y en una intersección controlada por semaforización. La principal característica de este sistema es que integra algoritmos de inteligencia artificial y aprendizaje de máquina junto con algoritmos de planeación clásica como Rapid-exploring random tree. Este sistema se basa en la guía NHTSA para la construcción de sus elementos fundamentales, la detección de objetos (OEDR) y el control del vehículo.
El detector de objetos se obtuvo por un proceso de entrenamiento, en el cual se le deben proporcionar muestras de las imágenes y de los objetos a detectar a un modelo de red neuronal de la librería Tensorflow. Estas imágenes se consiguieron a partir de una grabación de la vista del robot diferencial en la plataforma de ambiente urbano mientras era controlado remotamente y fue programado en su totalidad en Python.
Para el control del vehículo se diseñó un algoritmo que recibe los datos proporcionados por el detector de objetos y por otros subsistemas del vehículo y basados en las reglas de tráfico del dominio del diseño de operación, toma decisiones sobre cómo navegar la intersección. Para la construcción de este algoritmo se utilizaron las librerías de Duckietown las cuales permiten hacer un
diseño modular y totalmente compatible con la plataforma.
Una vez diseñado el sistema, se utilizó el software Docker para compilar el ADS en el robot diferencial y realizar pruebas de funcionamiento en el robot, con lo cual se obtuvo un tiempo de detección de objetos de menos de 1 segundo y un desempeño destacado en la ejecución de las intersecciones, logrando así un sistema automatizado de navegación autónoma a escala en el software ROS, el cual es usado en robótica a nivel mundial. | |
dc.description.abstract | This project to qualify for the title of mechatronic engineer presents an Autonomous
Driving System (ADS) that consists of a software application based on the
Duckietown platform, designed to identify objects of interest in an urban environment
such as traffic lights, pedestrians, traffic signals, vehicles and signalling on the road
and making decisions related to how to navigate a T-type intersection and an
intersection controlled by traffic lights, by means of a differential robot, which has a
monocular camera installed. The main feature of this system is that it integrates
artificial intelligence and machine learning algorithms together with classical robotics
algorithms such as Rapid-explore random tree. This system is based on the NHTSA
guide for building its fundamental elements, Object Detection (OEDR) and Vehicle
Control.
The object detector was obtained by a training process, in which samples of the
images and objects to be detected must be provided to a neural network model from
the Tensorflow library. These images were obtained from a recording of the view of
the differential robot on the urban environment platform while it was controlled
remotely and was programmed entirely in Python.
For the control of the vehicle, an algorithm was designed that receives the data
provided by the object detector and by other vehicle subsystems and based on the
traffic rules of the operation design domain, makes decisions about how to navigate
the intersection. For the design of this algorithm, the Duckietown libraries were used,
which allow a modular design that is fully compatible with the platform.
Once the system was designed, the Docker software was used to compile the ADS
in the differential robot and perform functional tests on the robot, with which an object
detection time of xxx was obtained and an outstanding performance in the execution
of the intersections, thus achieving an automated autonomous navigation system at
scale in the ROS software, which is used in robotics worldwide | |
dc.language | spa | |
dc.publisher | Universidad Autónoma de Occidente (UAO) | |
dc.publisher | Ingeniería Mecatrónica | |
dc.publisher | Departamento de Automática y Electrónica | |
dc.publisher | Facultad de Ingeniería | |
dc.publisher | Cali | |
dc.relation | ABADI, Martín. Et. al. TensorFlow: Large-scale machine learning on heterogeneous systems. [En línea] 2015. [Consultado en abril de 2020] Software Disponible en: tensorflow.org. | |
dc.relation | AGENCIA NACIONAL DE SEGURIDAD VIAL. Observatorio general de seguridad vial. [En línea] Colombia. 2018. [Consultado el 20 de octubre de 2020]. Disponible en: https://ansv.gov.co/es/observatorio | |
dc.relation | AI REDACTOR. Ejemplos de Machine Learning - usos y aplicaciones [En línea]. VEX SOLUCIONES. (28 de noviembre de 2018). [Consultado el 1 de octubre de 2019]. Disponible en internet: https://www.vexsoluciones.com/inteligenciaartificial/ ejemplos-del-machine-learning-usos-y-aplicaciones/ | |
dc.relation | AYACHI, R. et al. Traffic Signs Detection for Real-World Application of an Advanced Driving Assisting System Using Deep Learning. [En línea] 2020. Neural Process Lett 51, 837–851. [Consultado en noviembre de 2020] Disponible en: https://doi.org/10.1007/s11063-019-10115-8 | |
dc.relation | BABER, Jhonatan. Et.al. Cooperative autonomous driving: intelligent vehicles sharing city roads. [En línea]. 2005. IEEE Robotics and Automation Magazine, vol.12, no.1, pp. 44-49, 2005. (Pubitemid 40583691). [Consultado en abril del 2020] Disponible en: https://ieeexplore.ieee.org/document/1411418 | |
dc.relation | BHARADHWAJ, Homanga A Data-Efficient Framework for Training and Sim-to-Real Transfer of Navigation Policies.[En línea] 2019 International Conference on Robotics and Automation (ICRA), 782-788.[Consultado en octubre de 2020] Disponible en: https://arxiv.org/abs/1810.04871 BMW. | |
dc.relation | Overview of the main driver assistance systems. [En línea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.bmw.com/en/innovation/the-main-driver-assistance-systems.html | |
dc.relation | BORA, Dibya. GUPTA, Anil y KHAN, Fayaz. Comparing the Performance of L*A*B* and HSV Color Spaces with Respect to Color Image Segmentation. [En línea] 2015. ArXiv, abs/1506.01472. [Consultado en agosto de 2020] Disponible en: https://arxiv.org/abs/1506.01472 | |
dc.relation | BOUTON, Maxime; COSGUN, Akansel y KOCHENDERFER, Mykel J. Belief State Planning for Autonomously Navigation Urban Intersections. [En linea] IEEE Intelligent Vehicles Symposium (IV). Redondo Beach, CA, USA. 2017. [consultado en Junio 11 2019] Disponible en: https://arxiv.org/pdf/1704.04322.pdf | |
dc.relation | BROWNLEE, Jason. Supervised and Unsupervised Machine Learning Algorithms. [blog]. Machine Learning Mastery. Vermont Victoria, Australia. Agosto 12 de 2019. Párr 4. [Consultado el 23 de agosto de 2020] Disponible en: https://machinelearningmastery.com/supervised-and-unsupervised-machinelearning- algorithms/ | |
dc.relation | CITO, Jürgen. FERME, Vincenzo. GALL, Harald. Using Docker Containers to Improve Reproducibility in Software and Web Engineering Research. [En línea]. IEEE/ACM 38th International Conference on Software Engineering Companion (ICSE-C), Austin, TX, USA, 2016, pp. 906-907. [Consultado en abril de 2020] Disponible en: https://ieeexplore.ieee.org/document/7883438 | |
dc.relation | COCO CONSORTIUM. COCO. Common objects in context. [en linea]. USA. 2015. [Consultado el 23 de abril de 2020]. Disponible en: https://cocodataset.org/#home | |
dc.relation | DAI, Jifeng. Et. al. R-FCN: object detection via region-based fully convolutional networks. [En línea] 2016. In: Advances in neural information processing systems 29: annual conference on neural information processing systems 2016, 5–10 Dec 2016, Barcelona, Spain, pp 379–387 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1605.06409 | |
dc.relation | DEPARTAMENTO DE SEGURIDAD VIAL, Señales Horizontales - Instructivo de aplicación, [en línea]. [Consultado el 26 de septiembre de 2019]. Disponible en Internet: http://www.vialidad.cl/areasdevialidad/seguridadvial/Documents/lineas_trans_DEM ARCACIONES_5.pdf | |
dc.relation | DIAZ-CABRERA, Moises. CERRI, Pietro. MEDICI, Paolo. Robust real-time traffic light detection and distance estimation using a single camera. [En línea] 2015. Expert Syst Appl 42(8):3911–3923. [Consultado en agosto de 2020] Disponible en: https://www.sciencedirect.com/science/article/abs/pii/S0957417414008161 | |
dc.relation | DUAN, Kaiwen et al. CenterNet: Keypoint Triplets for Object Detection. [En línea]. 2019. IEEE/CVF International Conference on Computer Vision (ICCV) (2019): 6568- 6577. [Consultado el día 21 de junio de 2021] disponible en: https://arxiv.org/abs/1904.08189 | |
dc.relation | DUCKIETOWN. duckietown-intnav: Intersection Navigation for Duckietown. [en lìnea]. GitHub.- duckietown/duckietown-intnav. 2019. [consultado el 24 de septiembre de 2019]. Disponible en: https://github.com/duckietown/duckietownintnav/commits/master | |
dc.relation | EXPERT SYSTEM S.P.A. What is Machine Learning? A definition [en línea]. 2019. Machine Learning. Rockville, Maryland, E.E.U.U. 7 de marzo de 2017. [Consultado el 24 de septiembre de 2019]. Disponible en: https://www.expertsystem.com/machine-learning-definition/. | |
dc.relation | FERGUSON, Dave. HOWARD, Thomas y LIKHACHEV, Maxim. Motion planning in urban environments: Part I. [En línea] 2008. IEEE/RSJ International Conference on Intelligent Robots and Systems, Nice, France, pp. 1063-1069doi: 10.1109/IROS.2008.4651120. [Consultado en agosto de 2020] Disponible en: https://ieeexplore.ieee.org/document/4651120 | |
dc.relation | FERGUSON, Dave. HOWARD, Thomas y LIKHACHEV, Maxim. Motion planning in urban environments: Part II. [En línea] 2008. IEEE/RSJ International Conference on Intelligent Robots and Systems, Nice, France, 2008, pp. 1070-1076, doi: 10.1109/IROS.2008.4651124. [Consultado en agosto de 2020] Disponible en: https://ieeexplore.ieee.org/document/4651124 | |
dc.relation | FORD GLOBAL TECNOLOGIES, LCC. Autonomous Driving at Intersections Based on Perception Data. Inventor: A. ELIZABETH MICKS, H. BANVAIT, J. JAIN, B. REIFF. US 9.983.591 B2 . United States Patent. Mayo 29 de 2018. | |
dc.relation | G. VAN ROSSUM, Python tutorial, Technical Report CS-R9526, Centrum voor Wiskunde en Informatica (CWI), [En línea] Amsterdam, 1995. [Consultado en abril de 2020] Disponible en: http://lib.21h.io/library/G7B3RFY7/download/GBMFTU3C/Python_3.8.3_Docs_.pdf | |
dc.relation | HAN, Cen., GAO, Guangyu. y ZHANG, Yu. Real-time small traffic sign detection with revised faster-RCNN. [En línea]. 2019. Multimed Tools Appl 78, 13263–13278 [Consultado en abril de 2019]. Disponible en: https://doi.org/10.1007/s11042-018- 6428-0 | |
dc.relation | HOWARD, Andrew, et al. MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications [en línea].Google Inc. 2017. p. 1-9. arXiv:1704.04861 [Consultado el 20 de Octubre de 2019]. Disponible en: https://arxiv.org/abs/1704.04861v1. | |
dc.relation | HU, Yeping, ZHAN W. y TOMIZUKA M. Probabilistic Prediction of Vehicle Semantic Intention and Motion. [en línea] En: 2018 IEEE Intelligent Vehicles Symposium (IV), 307-313.[consultado el 22 de junio de 2021] disponible en: https://arxiv.org/abs/1804.03629 | |
dc.relation | HUANG, Gao. Et. al. Densely connected convolutional networks. [En línea] 2017 In: 2017 IEEE conference on computer vision and pattern recognition, CVPR 2017, Honolulu, HI, USA, 21–26 July 2017, pp 2261–2269 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1608.06993 | |
dc.relation | HUANG, J. Tensorflow/Models. [En línea] GitHub. 2020 [Consultado el 18 2020]. Disponible en: https://github.com/tensorflow/models/tree/master/research/object_detection | |
dc.relation | J. Holzinger, P. Tkachenko, G. Obereigner and L. d. Re, "Context Aware Control of ADAS," 2020 American Control Conference (ACC), Denver, CO, USA, 2020, pp. 2288-2293, doi: 10.23919/ACC45564.2020.9147710 | |
dc.relation | KAI, Arras. Introduction to Mobile Robotics [Diapositivas]. UNI FREIBURG, Alemania, 2011. [Consultado el día 28 de octubre de 2019] disponible en: https://www.yumpu.com/en/document/view/31487650/welcome-introduction-tomobile- robotics | |
dc.relation | KHOURY, John. Et al. A practical decentralized access protocol for autonomous vehicles at isolated under-saturated intersections [En línea].2019. Journal of Intelligent Transportation Systems, 23:5, 427-440, DOI:10.1080/15472450.2018.1536859 [Consultado en agosto de 2020] Disponible en:https://www.tandfonline.com/doi/abs/10.1080/15472450.2018.1536859?journal Code=gits20 | |
dc.relation | LIAM, Paull et al., "Duckietown: An open, inexpensive and flexible platform for autonomy education and research," 2017 IEEE International Conference on Robotics and Automation (ICRA), Singapur, 2017, pp. 1497-1504, doi: 10.1109/ICRA.2017.7989179. Disponible en: http://michalcap.net/wpcontent/ papercite-data/pdf/paull_2017.pdf | |
dc.relation | LIANG, Z. et al. Traffic sign detection and recognition based on pyramidal convolutional networks. [En línea] 2020. Neural Comput & Applic 32, 6533–6543. [Consultado en octubre de 2020] Disponible en: https://doi.org/10.1007/s00521-019- 04086-z | |
dc.relation | LIKHACHEV, Maxim, FERGUSON, Dave. Planning Long Dynamically Feasible Maneuvers for Autonomous Vehicles. [En línea] The International Journal of Robotics Research. 2009;28(8):933-945. doi:10.1177/0278364909340445. [Consultado en octubre de 2020] Disponible en: https://doi.org/10.1177/0278364909340445 | |
dc.relation | LONG, Jonathan, SHELHAMER, Evan. DARRELL, Trevor. Fully convolutional networks for semantic segmentation. [En línea] 2015. In: IEEE conference on computer vision and pattern recognition, CVPR 2015, Boston, MA, USA, 7–12 June 2015, pp 3431–3440 [Consultado en abril de 2020] Disponible en: https://arxiv.org/abs/1411.4038 | |
dc.relation | LUNDH, Fredrick. CLARK, Alex. Pillow. [en linea] USA. 2019. [Consultado el 25 de octubre de 2020]. Disponible en: https://pillow.readthedocs.io/en/stable/ | |
dc.relation | MENDIETA, Victor Alonso. Detección y reconocimiento de semáforos por visión artificial [en línea]. Proyecto de fin de carrera de Ingeniería Industrial Especialidad en Automática y Electrónica Industrial. Universidad Carlos III de Madrid. Escuela Politécnica Superior. Departamento de Ingeniería de Sistemas y Automática. 2013. [Consultado el 1 de octubre de 2019]. Disponible en internet: https://core.ac.uk/download/pdf/29405005.pdf. | |
dc.relation | MINTRANSPORTE, et. al. Plan nacional de seguridad vial Colombia 2011-2021. [En linea] Colombia, 2011. [Consultado el 27 de Octubre de 2020] Disponible en: https://ansv.gov.co/sites/default/files/Documentos/Agencia/mipg/1-5-5-docs-einformes/ 1%20-%205%20- %205%20%2029%20Plan%20Nacional%20de%20Seguridad% 20Vial/Plan%20Nacional%20de%20Seguridad%20Vial.pdf | |
dc.relation | MUSA, Angky. ADIWIJAYA, Kang y UTAMA, Dody. Segmentation Image Recoloring Based On K-means Clustering Algorithm As A Tool for Partial Color-Blind People. [En línea] 2019. Phys.: Conf. Ser. 1192 012012. [Consultado en agosto de 2020] Disponible en: https://iopscience.iop.org/article/10.1088/1742-6596/1192/1/012012 | |
dc.relation | NATIONAL TRANSPORTATIONS SAFETY BOARD. Preliminary report Highway hwy18mh010. [En línea] USA. 2018. [Consultado el 16 de noviembre de 2020] Disponible en: https://www.technischweekblad.nl/files/46e4a0ca1a0bf2cb04f4751d0af26913.pdf | |
dc.relation | NHTSA. AUTOMATED DRIVING SYSTEMS, A Vision for Safety [Diapositivas]. USA, 2017. [Consultado el día 2 de octubre de 2019] disponible en: https://www.nhtsa.gov/sites/nhtsa.dot.gov/files/documents/13069aads2.0_090617_v9a_tag.pdf | |
dc.relation | NHTSA. Automated Vehicles for Safety. [en línea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.nhtsa.gov/technologyinnovation/ automated-vehicles-safety | |
dc.relation | NHTSA. TRAFFIC SAFETY FACTS. Crash Stats. Critical Reasons for Crashes Investigated in the National Motor Vehicle Crash Causation Survey. [En línea] USA. 2015.[Consultado el 20 de noviembre de 2020] Disponible en: https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812115 | |
dc.relation | OLLERO, Anibal. Control de robot móviles. [libro] Robótica. manipuladores y robots móviles. Ed. 1. Barcelona (España). Marcombo , S.A. 2001. | |
dc.relation | PASCAL VOC (PASCAL Visual Object Classes Challenge). [en linea]. USA. 2007. [Consultado el 21 de junio de 2020]. Disponible en: https://paperswithcode.com/dataset/pascal-voc QUIGLEY, Morgan. Et al. ROS: an open-source Robot Operating System. [En línea] 2009. ICRA Workshop on Open Source Software. 3. [Consultado en abril de 2020] Disponible en: https://www.ros.org | |
dc.relation | REDMON, Joseph et al. “You Only Look Once: Unified, Real-Time Object Detection.” [En línea]. 2016. IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2016): 779-788.[Consultado el día 21 de Junio de 2021] Disponible en: https://arxiv.org/abs/1506.02640 | |
dc.relation | ROS.ORG. Rosbag package summary. [en linea] USA. 2019. [Consultado el 21 de octubre de 2020]. Disponible en: http://wiki.ros.org/rosbag | |
dc.relation | SIMONYAN, Karen, ZISSERMAN, Andrew. Very Deep Convolutional Networks for Large-Scale Image Recognition. [En línea]. 2015 Visual Geometry Group, Department of Engineering Science, University of Oxford. CoRR. [Consultado el 20 de enero de 2021]. Disponible en: https://arxiv.org/pdf/1409.1556.pdf | |
dc.relation | SOKÈMI RENÉ, Emmanuel Datondji. Et al. A Survey of Vision-Based Traffic Monitoring of Road Intersections. [En linea]. vol. 17, no. 10, pp. 2681-2698, Oct. 2016, doi: 10.1109/TITS.2016.2530146.[Consultado en octubre de 2020] Disponible en: https://ieeexplore.ieee.org/document/7458203 | |
dc.relation | TAN, Mingxing. QUOC V. Le. “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks.” [En línea] 2020. [Consultado el 20 de enero de 2021]. Disponible en: https://arxiv.org/pdf/1905.11946.pdf | |
dc.relation | TETTAMANTI, Tamás; VARGA, István y SZALAY, Zsolt. Impacts of Autonomous Cars from a Traffic Engineering Perspective. [en línea] En: Periodica Polytechnica Transportation Engineering. 2016. vol. 44, no. 4, pp. 244-250 [consultado: 23 de septiembre de 2019] disponible en internet: https://pp.bme.hu/tr/article/view/9464/7146 | |
dc.relation | UÇAR, Ayşegül y DEMIR, Yakup y GÜZELIŞ, Cüneyt. Object recognition and detection with deep learning for autonomous driving applications. [En línea] 2017. SIMULATION. 93. 003754971770993. 10.1177/0037549717709932. [Consultado en agosto de 2020] Disponible en: https://journals.sagepub.com/doi/10.1177/0037549717709932 | |
dc.relation | VOLVO. Funciones de vehículo. [en linea] 2020 [consultado el día 15 de noviembre de 2020] Disponible en: https://www.volvocars.com/pe/support/article/4c4380adf3f56bc8c0a801510c91778c | |
dc.relation | WAYMO. Waymo’s Safety Methodologies and Safety Readiness Determinations. [En linea]. USA. 2020 P. 22-24. [Consultado el 10 de noviembre de 2020] Disponible en: https://storage.googleapis.com/sdc-prod/v1/safety-report/Waymo-Safety- Methodologies-and-Readiness-Determinations.pdf | |
dc.relation | XIAO, Yao. Vehicle Detection in Deep Learning [En línea]. 2019. ArXiv, abs/1905.13390. [Consultado en octubre de 2020]. Disponible en: https://arxiv.org/ftp/arxiv/papers/1905/1905.13390.pdf | |
dc.relation | XU, Hao., SRIVASTAVA, Gautam. Automatic recognition algorithm of traffic signs based on convolution neural network. [En línea] 2020. Multimed Tools Appl 79, 11551–11565. [Consultado en Diciembre de 2020] Disponible en: https://doi.org/10.1007/s11042-019-08239-z | |
dc.relation | YI. Xiao, CODEVILLA, Felipe, GURRAM, Akhil, Et. al, "Multimodal End-to-End Autonomous Driving," in IEEE Transactions on Intelligent Transportation Systems, doi: 10.1109/TITS.2020.3013234. | |
dc.relation | YILMAZ, Asim. A Vehicle Detection Approach using Deep Learning Methodologies. [En línea] 2018. ArXiv, abs/1804.00429. [Consultado en agosto de 2020] Disponible en: https://arxiv.org/abs/1804.00429 | |
dc.relation | ZHENNING, Li, Et al. Temporal-spatial dimension extension-based intersection control formulation for connected and autonomous vehicle systems.[En línea] Transportation Research Part C: Emerging Technologies, Volume 104, 2019, Pg 234-248, ISSN 0968-090X, [Consultado en septiembre de 2020] https://doi.org/10.1016/j.trc.2019.05.003. | |
dc.rights | https://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.rights | info:eu-repo/semantics/openAccess | |
dc.rights | Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) | |
dc.rights | Derechos Reservados - Universidad Autónoma de Occidente, 2021 | |
dc.subject | Ingeniería mecatrónica | |
dc.subject | Sistema de navegación autónoma | |
dc.subject | OEDR | |
dc.subject | Aprendizaje de Máquina | |
dc.subject | NHTSA | |
dc.subject | Dominio de diseño de operación | |
dc.subject | ROS | |
dc.title | Desarrollo de un sistema para la navegación autónoma de ambientes urbanos tipo intersección y su evaluación en la plataforma duckietown | |
dc.type | Trabajo de grado - Pregrado | |