dc.contributorHolguín Londoño, Germán Andrés
dc.creatorOrtega Quiñones, Kevin David
dc.date2023-06-23T16:19:55Z
dc.date2023-06-23T16:19:55Z
dc.date2023
dc.date.accessioned2023-08-28T15:29:57Z
dc.date.available2023-08-28T15:29:57Z
dc.identifierUniversidad Tecnológica de Pereira
dc.identifierRepositorio Institucional Universidad Tecnológica de Pereira
dc.identifierhttps://repositorio.utp.edu.co/home
dc.identifierhttps://hdl.handle.net/11059/14712
dc.identifier.urihttps://repositorioslatinoamericanos.uchile.cl/handle/2250/8443152
dc.descriptionEl presente documento expone el detallado proceso de elaboración de una plataforma virtual mediante la utilización de software de código abierto, destacando herramientas como ROS, Gazebo y Python. Dicha plataforma se emplea con el objetivo principal de capturar y etiquetar bases de datos, cuyo propósito radica en el entrenamiento de una red neuronal convolucional diseñada para estimar con precisión la posición de un manipulador serial. En este sentido, la captura de dichos datos se lleva a cabo de manera eficiente y efectiva mediante la utilización de tres cámaras estratégicamente ubicadas en el entorno de trabajo del robot.
dc.descriptionThe present document outlines the detailed process of developing a virtual platform using open-source software, highlighting tools such as ROS, Gazebo, and Python. This platform is employed with the primary objective of capturing and labeling datasets, aiming to train a convolutional neural network capable of accurately estimating the position of a serial manipulator. In this regard, the data capture is efficiently and effectively performed through the use of three strategically positioned cameras in the robot's working environment.
dc.descriptionPregrado
dc.descriptionIngeniero(a) Electricista
dc.descriptionCONTENIDO pág. 1 INTRODUCCIÓN 11 1.1 DEFINICIÓN DEL PROBLEMA . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2 JUSTIFICACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.3 OBJETIVOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.3.1 Objetivo General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.3.2 Objetivos Específicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2 ESTADO DEL ARTE 19 3 ECOSISTEMA DE SIMULACIÓN ROS / GAZEBO / Python 23 3.1 ESTRUCTURA DE UN BRAZO EN ROS . . . . . . . . . . . . . . . . . . . 24 3.2 MANIPULADOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.3 ESTRUCTURA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 4 IMPLEMENTACIÓN DE UN MANIPULADOR SERIAL EN ROS 29 4.1 TIPOS DE ARTICULACIONES . . . . . . . . . . . . . . . . . . . . . . . . 29 4.2 CINEMÁTICA VECTORIAL Y TRANSFORMACIONES DE COORDENADAS 30 4.3 MODELO DE DENAVITH-HARTENBERG . . . . . . . . . . . . . . . . . . 31 4.3.1 Cinemática Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4.3.2 Parámetros DH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 4.3.3 Cinemática Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 5 CAPTURAS DE BASES DE DATOS 37 5.1 DEFINICIÓN DE POSE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 5.2 ÁNGULOS DE EULER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 5.3 ESPACIO DE TRABAJO ESFÉRICO . . . . . . . . . . . . . . . . . . . . . 40 5.4 MUESTREO DE MONTECARLO . . . . . . . . . . . . . . . . . . . . . . . 41 5.5 BASE DE DATOS ETIQUETADAS . . . . . . . . . . . . . . . . . . . . . . 43 6 APRENDIZAJE PROFUNDO 47 6.1 REDES NEURONALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 6.2 CNN: CONVOLUCIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 6.3 DEEP CNNs-ARQUITECTURAS PROFUNDAS . . . . . . . . . . . . . . . 49 6.4 PROBLEMA DE REGRESIÓN . . . . . . . . . . . . . . . . . . . . . . . . . 51 6.5 ENTRENAMIENTO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 6.6 Modelado CNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 7 EXPERIMENTOS Y RESULTADOS 57 7.1 EXPERIMENTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 7.2 RESULTADOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 8 CONCLUSIONES 61 8.1 CONCLUSIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 8.2 RECOMENDACIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 8.3 TRABAJOS FUTUROS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 A TUTORIAL ROS1 65 A.1 INSTALACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 A.2 CONFIGURACIÓN DEL ENTORNO . . . . . . . . . . . . . . . . . . . . . 68 A.3 EJECUCIÓN DE ROS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 A.3.1 Nivel gráfico de computación de ROS . . . . . . . . . . . . . . . . . . 72 A.3.2 Nivel de la comunidad de ROS . . . . . . . . . . . . . . . . . . . . . . 74 A.3.3 Tutorial de ejecución . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 A.3.4 Introducción a TurtleSim . . . . . . . . . . . . . . . . . . . . . . . . . 77 A.3.5 Gazebo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 B TUTORIAL DE INSTALACIÓN ROS2 83 B.1 RESUMEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 B.2 INTRODUCCIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 B.3 INSTALACCIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 BIBLIOGRAFÍA 89
dc.format102 Páginas
dc.formatapplication/pdf
dc.formatapplication/pdf
dc.languagespa
dc.publisherUniversidad Tecnológica de Pereira
dc.publisherFacultad de Ingenierías
dc.publisherPereira
dc.publisherIngeniería Eléctrica
dc.relation[1] TECHNOLOGIES, Faro. Faro lanza la última sonda Vantage Laser Tracker 6DoF. https://www.prnewswire.com/news-releases/ faro-r-lanza-la-ultima-sonda-vantage-laser-tracker-6dof-876210429.html, Fecha de acceso: 2 de junio de 2023. (document), 2
dc.relation[2] MICROSYSTEMS, Leica. Laser Tracker. http://www.metronica.es/metronica/ laser-tracker/, Fecha de acceso: 2 de junio de 2023. (document), 2
dc.relation[3] PANTELERIS, Paschalis; OIKONOMIDIS, Iason y ARGYROS, Antonis. Using a Single RGB Frame for Real Time 3D Hand Pose Estimation in the Wild. En: 2018 IEEE Winter Conference on Applications of Computer Vision (WACV), 2018, págs. 436–445. (document), 2, 4, 2
dc.relation[4] UNIVERSAL ROBOT UR5 collaborative robot - UR5 - robotmp.com. https://www.robotmp.com/universal-robot-ur5-collaborative-robot. Consultado el [18 MAYO 2023]. (document), 6
dc.relation[5] WIKIMEDIA. Ángulos de Euler. Wikipedia Commons, n.d. https://es.wikipedia. org/w/index.php?title=%C3%81ngulos_de_Euler&oldid=141375560. (document), 5.2, 8
dc.relation[6] DURDEVIC, Zakariae Machkour. Daniel Ortiz-Arrollo. Petar. Classical and Deep Learn ing based Visual Servoing Systems: a Survey on State of the Art. En: Journal of Intelligent y Robotic Systems, 2022, págs. 1–27. 1, 2
dc.relation[7] HASHIMOTO., Yasuhiko. The Kawasaki Robot Story. En: 50th Anniversary Website Robot Division of Kawasaki Heavy Industries, Ltd, 2018, pág. 01–25. 1.1
dc.relation[8] WILLIAMS, Theodore Joseph. The Purdue enterprise reference architecture: a technical guide for CIM planning and implementation. Instrument Society of America, 1992. 1.1
dc.relation[9] BARONA LÓPEZ, Gustavo y VELASTEGUÍ, Luis Efraín. Automatización de procesos industriales mediante Industria 4.0. En: AlfaPublicaciones, tomo 3, No 3.1, 2021, págs. 84–101. 1.1
dc.relation[10] HENDERSON., Hugh Durrant. Thomas C. Multisensor Data. En: Springer Handbook of Robotics, 2014, págs. 1–54. 1.1
dc.relation[11] CHEN., Zeyin Zhao. Xin Wang. Jiafan Chen. Mengzhong. A Generalized Kinematic Error Modeling Method for Serial Industrial Robots Based on Product of Exponentials Formula. En: IEEE International Conference on Real-time Computing and Robotics, 2021, pág. 1023–1028. 1.1, 2
dc.relation[12] WANG, Junwei Li. Guoliang Liu. Guohui Tian. Xianglai Zhu. Ziren. International Conference: Distributed RGBD Camera Network for 3D Human Pose Estimation and Action Recognition. En: International Conference on Information Fusion, 2018, pág. 1554–1558. 1.2
dc.relation[13] CHEN., Yutian Liu. Shaozhong Zhang. Danjiang. Obstacle avoidance method based on the movement trend of dynamic obstacles. En: IEEE International Conference on Control and Robotics Engineering (ICCRE), 2018, pág. 45–50. 1.2
dc.relation[14] IGOR, Juhasova Bohuslava. Juhas Martin. Halenar. TCP/IP Protocol Utilisation in Process of Dynamic Control of Robotic Cell According Industry 4.0 Concept. En: SAMI 2017 • IEEE 15th International Symposium on Applied Machine Intelligence and Infor matics • January 26-28, 2017 • Herl’any, Slovakia, 2017, pág. 000218–000222. 2
dc.relation[15] R., Wang H. Yang B. Liu Y. Chen W. Liang X. Pfeifer. Visual servoing of soft robot ma nipulator in constrained environ- ments with an adaptive controller. En: IEEE/ASME Transactions on Mechatronics 22(1), 1, 2016, págs. 41–50. 2
dc.relation[16] SHAO., Wen-Chung Chang. Chia-Kai. Hybrid Fuzzy Control of an Eye-to-Hand Robotic Manipulator for Autonomous Assembly Tasks. En: SICE Annual Conference 2010, 2010, pág. 408–414. 2
dc.relation[17] HOLGUÍN LONDOÑO, Germán Andrés. SISTEMAS MULTISENSOR DE SERVO CONTROL VISUAL CON MEDICIONES FUERA DE SECUENCIA. Inf. téc., Uni versidad Tecnológica de Pereira, 2016. 2
dc.relation[18] SIMON, D. Optimal State Estimation: Kalman, H Infinity, and Nonlinear Approaches. En: Wiley, 2006. 2
dc.relation[19] ZHANG Q. YANG L. T CHEN, Z. Li, P. survey on deep learning for big data. Infor mation Fusion 42. ScienceDirect, 2018. 2
dc.relation[20] HASHIMOTO, K. Kimura, H. isual servoing with nonlinear observer. En: International Journal of Computer Information Systems and Industrial Management Applications, tomo 1, 1995, págs. 484–489. 2
dc.relation[21] ABDELAAL, Mahmoud, et al. Uncalibrated stereo vision with deep learning for 6-DOF pose estimation for a robot arm system. En: Robotics and Autonomous Systems, tomo 145, 2021, pág. 103847. ISSN 0921-8890. 2
dc.relation[22] BOUDET, E. Malis; F. Chaumette; S. 2 1/2 D visual servoing. En: IEEE Transactions on Robotics and Automation, tomo 15, No 2, 1999. 2
dc.relation[23] TOMIZUKA, Jwu-Sheng Hu. Chi-Shen Tsai. Masayoshi. Ensuring Safety in Human Robot Coexistence Environment. En: 2014 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2014) September 14-18, 2014, Chicago, IL, USA, 2014, pág. 4191–4196. 2
dc.relation[24] QUIGLEY, Morgan, et al. ROS: an open-source Robot Operating System. En: ICRA workshop on open source software, 3.2, 2009, pág. 5. 3
dc.relation[25] FERNANDEZ, Enrique, et al. Learning ROS for robotics programming. Packt Publish ing Ltd, 2015. 3
dc.relation[26] QUIGLEY, Morgan; GERKEY, Brian y SMART, William D. Programming Robots with ROS: a practical introduction to the Robot Operating System. " O’Reilly Media, Inc.", 2015. 3
dc.relation[27] OPEN SOURCE ROBOTICS FOUNDATION. ROS - Robot Operating System. https: //www.ros.org/, Consultado en mayo de 2023. 3
dc.relation[28] OPEN SOURCE ROBOTICS FOUNDATION. ROS Noetic. https://wiki.ros.org/ noetic, Consultado en mayo de 2023. 3
dc.relation[29] H., Huang L. Zhao. Implementation of UR5 pick and place in ROS-Gazebo with a USB cam and vacuum grippers. https://github.com/lihuang3/ur5_ROS-Gazebo. git, 2018. 4
dc.relation[30] KEBRIA, Parham M., et al. Kinematic and dynamic modelling of UR5 manipulator. En: 2016 IEEE International Conference on Systems, Man, and Cybernetics (SMC), 2016, págs. 004229–004234. 4.3, 4.3.2, 4.3.3
dc.relation[31] ...
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightshttp://purl.org/coar/access_right/c_abf2
dc.rightsAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
dc.rightshttps://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subject000 - Ciencias de la computación, información y obras generales::006 - Métodos especiales de computación
dc.subjectVisión por computadora
dc.subjectRedes neuronales
dc.subjectReconocimiento de objectos
dc.subjectManufactura flexible
dc.subjectManufactura inteligente
dc.subjectCobots
dc.titleSeguimiento visual de un manipulador serial utilizando redes neuronales profundas
dc.typeTrabajo de grado - Pregrado
dc.typehttp://purl.org/coar/resource_type/c_7a1f
dc.typehttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.typeText
dc.typeinfo:eu-repo/semantics/bachelorThesis
dc.typeinfo:eu-repo/semantics/acceptedVersion


Este ítem pertenece a la siguiente institución