dc.contributor | Holguín Londoño, Germán Andrés | |
dc.creator | Ortega Quiñones, Kevin David | |
dc.date | 2023-06-23T16:19:55Z | |
dc.date | 2023-06-23T16:19:55Z | |
dc.date | 2023 | |
dc.date.accessioned | 2023-08-28T15:29:57Z | |
dc.date.available | 2023-08-28T15:29:57Z | |
dc.identifier | Universidad Tecnológica de Pereira | |
dc.identifier | Repositorio Institucional Universidad Tecnológica de Pereira | |
dc.identifier | https://repositorio.utp.edu.co/home | |
dc.identifier | https://hdl.handle.net/11059/14712 | |
dc.identifier.uri | https://repositorioslatinoamericanos.uchile.cl/handle/2250/8443152 | |
dc.description | El presente documento expone el detallado proceso de elaboración de una plataforma virtual mediante la utilización de software de código abierto, destacando herramientas como ROS, Gazebo y Python. Dicha plataforma se emplea con el objetivo principal de capturar y etiquetar bases de datos, cuyo propósito radica en el entrenamiento de una red neuronal convolucional diseñada para estimar con precisión la posición de un manipulador serial. En este sentido, la captura de dichos datos se lleva a cabo de manera eficiente y efectiva mediante la utilización de tres cámaras estratégicamente ubicadas en el entorno de trabajo del robot. | |
dc.description | The present document outlines the detailed process of developing a virtual platform using open-source software, highlighting tools such as ROS, Gazebo, and Python. This platform is employed with the primary objective of capturing and labeling datasets, aiming to train a convolutional neural network capable of accurately estimating the position of a serial manipulator. In this regard, the data capture is efficiently and effectively performed through the use of three strategically positioned cameras in the robot's working environment. | |
dc.description | Pregrado | |
dc.description | Ingeniero(a) Electricista | |
dc.description | CONTENIDO
pág.
1 INTRODUCCIÓN 11
1.1 DEFINICIÓN DEL PROBLEMA . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 JUSTIFICACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3 OBJETIVOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.1 Objetivo General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.2 Objetivos Específicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 ESTADO DEL ARTE 19
3 ECOSISTEMA DE SIMULACIÓN
ROS / GAZEBO / Python 23
3.1 ESTRUCTURA DE UN BRAZO EN ROS . . . . . . . . . . . . . . . . . . . 24
3.2 MANIPULADOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3 ESTRUCTURA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4 IMPLEMENTACIÓN DE UN MANIPULADOR SERIAL EN ROS 29
4.1 TIPOS DE ARTICULACIONES . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2 CINEMÁTICA VECTORIAL Y TRANSFORMACIONES DE COORDENADAS 30
4.3 MODELO DE DENAVITH-HARTENBERG . . . . . . . . . . . . . . . . . . 31
4.3.1 Cinemática Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3.2 Parámetros DH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.3 Cinemática Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5 CAPTURAS DE BASES DE DATOS 37
5.1 DEFINICIÓN DE POSE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2 ÁNGULOS DE EULER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.3 ESPACIO DE TRABAJO ESFÉRICO . . . . . . . . . . . . . . . . . . . . . 40
5.4 MUESTREO DE MONTECARLO . . . . . . . . . . . . . . . . . . . . . . . 41
5.5 BASE DE DATOS ETIQUETADAS . . . . . . . . . . . . . . . . . . . . . . 43
6 APRENDIZAJE PROFUNDO 47
6.1 REDES NEURONALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.2 CNN: CONVOLUCIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
6.3 DEEP CNNs-ARQUITECTURAS PROFUNDAS . . . . . . . . . . . . . . . 49
6.4 PROBLEMA DE REGRESIÓN . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.5 ENTRENAMIENTO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.6 Modelado CNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
7 EXPERIMENTOS Y RESULTADOS 57
7.1 EXPERIMENTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
7.2 RESULTADOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
8 CONCLUSIONES 61
8.1 CONCLUSIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
8.2 RECOMENDACIONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
8.3 TRABAJOS FUTUROS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
A TUTORIAL ROS1 65
A.1 INSTALACIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
A.2 CONFIGURACIÓN DEL ENTORNO . . . . . . . . . . . . . . . . . . . . . 68
A.3 EJECUCIÓN DE ROS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
A.3.1 Nivel gráfico de computación de ROS . . . . . . . . . . . . . . . . . . 72
A.3.2 Nivel de la comunidad de ROS . . . . . . . . . . . . . . . . . . . . . . 74
A.3.3 Tutorial de ejecución . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
A.3.4 Introducción a TurtleSim . . . . . . . . . . . . . . . . . . . . . . . . . 77
A.3.5 Gazebo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
B TUTORIAL DE INSTALACIÓN ROS2 83
B.1 RESUMEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
B.2 INTRODUCCIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
B.3 INSTALACCIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
BIBLIOGRAFÍA 89 | |
dc.format | 102 Páginas | |
dc.format | application/pdf | |
dc.format | application/pdf | |
dc.language | spa | |
dc.publisher | Universidad Tecnológica de Pereira | |
dc.publisher | Facultad de Ingenierías | |
dc.publisher | Pereira | |
dc.publisher | Ingeniería Eléctrica | |
dc.relation | [1] TECHNOLOGIES, Faro. Faro lanza la última sonda Vantage Laser Tracker 6DoF. https://www.prnewswire.com/news-releases/ faro-r-lanza-la-ultima-sonda-vantage-laser-tracker-6dof-876210429.html, Fecha de acceso: 2 de junio de 2023. (document), 2 | |
dc.relation | [2] MICROSYSTEMS, Leica. Laser Tracker. http://www.metronica.es/metronica/ laser-tracker/, Fecha de acceso: 2 de junio de 2023. (document), 2 | |
dc.relation | [3] PANTELERIS, Paschalis; OIKONOMIDIS, Iason y ARGYROS, Antonis. Using a Single RGB Frame for Real Time 3D Hand Pose Estimation in the Wild. En: 2018 IEEE Winter Conference on Applications of Computer Vision (WACV), 2018, págs. 436–445. (document), 2, 4, 2 | |
dc.relation | [4] UNIVERSAL ROBOT UR5 collaborative robot - UR5 - robotmp.com. https://www.robotmp.com/universal-robot-ur5-collaborative-robot. Consultado el [18 MAYO 2023]. (document), 6 | |
dc.relation | [5] WIKIMEDIA. Ángulos de Euler. Wikipedia Commons, n.d. https://es.wikipedia. org/w/index.php?title=%C3%81ngulos_de_Euler&oldid=141375560. (document), 5.2, 8 | |
dc.relation | [6] DURDEVIC, Zakariae Machkour. Daniel Ortiz-Arrollo. Petar. Classical and Deep Learn ing based Visual Servoing Systems: a Survey on State of the Art. En: Journal of Intelligent y Robotic Systems, 2022, págs. 1–27. 1, 2 | |
dc.relation | [7] HASHIMOTO., Yasuhiko. The Kawasaki Robot Story. En: 50th Anniversary Website Robot Division of Kawasaki Heavy Industries, Ltd, 2018, pág. 01–25. 1.1 | |
dc.relation | [8] WILLIAMS, Theodore Joseph. The Purdue enterprise reference architecture: a technical guide for CIM planning and implementation. Instrument Society of America, 1992. 1.1 | |
dc.relation | [9] BARONA LÓPEZ, Gustavo y VELASTEGUÍ, Luis Efraín. Automatización de procesos industriales mediante Industria 4.0. En: AlfaPublicaciones, tomo 3, No 3.1, 2021, págs. 84–101. 1.1 | |
dc.relation | [10] HENDERSON., Hugh Durrant. Thomas C. Multisensor Data. En: Springer Handbook of Robotics, 2014, págs. 1–54. 1.1 | |
dc.relation | [11] CHEN., Zeyin Zhao. Xin Wang. Jiafan Chen. Mengzhong. A Generalized Kinematic Error Modeling Method for Serial Industrial Robots Based on Product of Exponentials Formula. En: IEEE International Conference on Real-time Computing and Robotics, 2021, pág. 1023–1028. 1.1, 2 | |
dc.relation | [12] WANG, Junwei Li. Guoliang Liu. Guohui Tian. Xianglai Zhu. Ziren. International Conference: Distributed RGBD Camera Network for 3D Human Pose Estimation and Action Recognition. En: International Conference on Information Fusion, 2018, pág. 1554–1558. 1.2 | |
dc.relation | [13] CHEN., Yutian Liu. Shaozhong Zhang. Danjiang. Obstacle avoidance method based on the movement trend of dynamic obstacles. En: IEEE International Conference on Control and Robotics Engineering (ICCRE), 2018, pág. 45–50. 1.2 | |
dc.relation | [14] IGOR, Juhasova Bohuslava. Juhas Martin. Halenar. TCP/IP Protocol Utilisation in Process of Dynamic Control of Robotic Cell According Industry 4.0 Concept. En: SAMI 2017 • IEEE 15th International Symposium on Applied Machine Intelligence and Infor matics • January 26-28, 2017 • Herl’any, Slovakia, 2017, pág. 000218–000222. 2 | |
dc.relation | [15] R., Wang H. Yang B. Liu Y. Chen W. Liang X. Pfeifer. Visual servoing of soft robot ma nipulator in constrained environ- ments with an adaptive controller. En: IEEE/ASME Transactions on Mechatronics 22(1), 1, 2016, págs. 41–50. 2 | |
dc.relation | [16] SHAO., Wen-Chung Chang. Chia-Kai. Hybrid Fuzzy Control of an Eye-to-Hand Robotic Manipulator for Autonomous Assembly Tasks. En: SICE Annual Conference 2010, 2010, pág. 408–414. 2 | |
dc.relation | [17] HOLGUÍN LONDOÑO, Germán Andrés. SISTEMAS MULTISENSOR DE SERVO CONTROL VISUAL CON MEDICIONES FUERA DE SECUENCIA. Inf. téc., Uni versidad Tecnológica de Pereira, 2016. 2 | |
dc.relation | [18] SIMON, D. Optimal State Estimation: Kalman, H Infinity, and Nonlinear Approaches. En: Wiley, 2006. 2 | |
dc.relation | [19] ZHANG Q. YANG L. T CHEN, Z. Li, P. survey on deep learning for big data. Infor mation Fusion 42. ScienceDirect, 2018. 2 | |
dc.relation | [20] HASHIMOTO, K. Kimura, H. isual servoing with nonlinear observer. En: International Journal of Computer Information Systems and Industrial Management Applications, tomo 1, 1995, págs. 484–489. 2 | |
dc.relation | [21] ABDELAAL, Mahmoud, et al. Uncalibrated stereo vision with deep learning for 6-DOF pose estimation for a robot arm system. En: Robotics and Autonomous Systems, tomo 145, 2021, pág. 103847. ISSN 0921-8890. 2 | |
dc.relation | [22] BOUDET, E. Malis; F. Chaumette; S. 2 1/2 D visual servoing. En: IEEE Transactions on Robotics and Automation, tomo 15, No 2, 1999. 2 | |
dc.relation | [23] TOMIZUKA, Jwu-Sheng Hu. Chi-Shen Tsai. Masayoshi. Ensuring Safety in Human Robot Coexistence Environment. En: 2014 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2014) September 14-18, 2014, Chicago, IL, USA, 2014, pág. 4191–4196. 2 | |
dc.relation | [24] QUIGLEY, Morgan, et al. ROS: an open-source Robot Operating System. En: ICRA workshop on open source software, 3.2, 2009, pág. 5. 3 | |
dc.relation | [25] FERNANDEZ, Enrique, et al. Learning ROS for robotics programming. Packt Publish ing Ltd, 2015. 3 | |
dc.relation | [26] QUIGLEY, Morgan; GERKEY, Brian y SMART, William D. Programming Robots with ROS: a practical introduction to the Robot Operating System. " O’Reilly Media, Inc.", 2015. 3 | |
dc.relation | [27] OPEN SOURCE ROBOTICS FOUNDATION. ROS - Robot Operating System. https: //www.ros.org/, Consultado en mayo de 2023. 3 | |
dc.relation | [28] OPEN SOURCE ROBOTICS FOUNDATION. ROS Noetic. https://wiki.ros.org/ noetic, Consultado en mayo de 2023. 3 | |
dc.relation | [29] H., Huang L. Zhao. Implementation of UR5 pick and place in ROS-Gazebo with a USB cam and vacuum grippers. https://github.com/lihuang3/ur5_ROS-Gazebo. git, 2018. 4 | |
dc.relation | [30] KEBRIA, Parham M., et al. Kinematic and dynamic modelling of UR5 manipulator. En: 2016 IEEE International Conference on Systems, Man, and Cybernetics (SMC), 2016, págs. 004229–004234. 4.3, 4.3.2, 4.3.3 | |
dc.relation | [31] ... | |
dc.rights | info:eu-repo/semantics/openAccess | |
dc.rights | http://purl.org/coar/access_right/c_abf2 | |
dc.rights | Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) | |
dc.rights | https://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.subject | 000 - Ciencias de la computación, información y obras generales::006 - Métodos especiales de computación | |
dc.subject | Visión por computadora | |
dc.subject | Redes neuronales | |
dc.subject | Reconocimiento de objectos | |
dc.subject | Manufactura flexible | |
dc.subject | Manufactura inteligente | |
dc.subject | Cobots | |
dc.title | Seguimiento visual de un manipulador serial utilizando redes neuronales profundas | |
dc.type | Trabajo de grado - Pregrado | |
dc.type | http://purl.org/coar/resource_type/c_7a1f | |
dc.type | http://purl.org/coar/version/c_ab4af688f83e57aa | |
dc.type | Text | |
dc.type | info:eu-repo/semantics/bachelorThesis | |
dc.type | info:eu-repo/semantics/acceptedVersion | |