dc.contributorGarcía Cárdenas, Juan José
dc.contributorSegura Quijano, Fredy Enrique
dc.contributorSotelo Briceño, Diana Camila
dc.creatorPadilla Torres, Juan Esteban
dc.date.accessioned2023-07-24T21:46:30Z
dc.date.accessioned2023-09-07T01:58:22Z
dc.date.available2023-07-24T21:46:30Z
dc.date.available2023-09-07T01:58:22Z
dc.date.created2023-07-24T21:46:30Z
dc.date.issued2023-06
dc.identifierhttp://hdl.handle.net/1992/68683
dc.identifierinstname:Universidad de los Andes
dc.identifierreponame:Repositorio Institucional Séneca
dc.identifierrepourl:https://repositorio.uniandes.edu.co/
dc.identifier.urihttps://repositorioslatinoamericanos.uchile.cl/handle/2250/8728842
dc.description.abstractEn la actualidad es muy importante para las organizaciones mantener un servicio al cliente de primer nivel. Para esto, es necesario desarrollar sistemas automatizados que detecten las emociones de las personas al responder al acercamiento de un producto o servicio. Después de todo, las decisiones que tomamos son, de manera innata, producto de nuestras emociones; es por esto que, es importante desarrollar un ambiente agradable a la hora de atraer a un cliente, ya sea por la estética del producto, el olor, o la estimulación de otros sentidos. En este reporte se presenta el desarrollo e implementación de una aplicación para el robot Pepper que pueda identificar y extraer del contexto de una conversación las emociones de su interlocutor para ajustar sus respuestas en la siguiente interacción. El espectro de emociones para la clasificación contiene: ira, disgusto, miedo, felicidad, tristeza, sorpresa y neutral. Para el sistema se implementa una rutina de detección de emociones multimodal que extrae las características para la clasificación a partir del vídeo, audio y texto obtenidas mediante una interacción humano-robot.
dc.languagespa
dc.publisherUniversidad de los Andes
dc.publisherIngeniería Electrónica
dc.publisherFacultad de Ingeniería
dc.publisherDepartamento de Ingeniería Eléctrica y Electrónica
dc.relationA. Bagher Zadeh, P. P. Liang, S. Poria, E. Cambria y L.-P. Morency, "Multimodal Language Analysis in the Wild: CMU-MOSEI Dataset and Interpretable Dynamic Fusion Graph," en Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Melbourne, Australia: Association for Computational Linguistics, jul. de 2018, pags. 2236-2246. DOI: 10.18653/v1/P18-1208. [Internet]. Disponible en: https://aclanthology.org/P18-1208.
dc.relationT. Baltrusaitis, C. Ahuja y L. Morency, "Multimodal Machine Learning: A Survey and Taxonomy," CoRR, vol. abs/1705.09406, 2017. arXiv: 1705.09406. [Internet]. Disponible en: http://arxiv.org/abs/1705.09406.
dc.relationK. Cho, B. van Merrienboer, C. Gulcehre et al., "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation," jun. de 2014. [Internet]. Disponible en: http://arxiv.org/abs/1406.1078.
dc.relationA. Christy, S. Vaithyasubramanian, A. Jesudoss y M. D. Praveena, "Multimodal speech emotion recognition and classification using convolutional neural network techniques," International Journal of Speech Technology, vol. 23, pags. 381-388, 2 jun. de 2020, ISSN: 15728110. DOI: 10.1007/s10772-020-09713-y.
dc.relationT. Debnath, M. M. Reza, A. Rahman, A. Beheshti, S. S. Band y H. Alinejad-Rokny, "Four-layer ConvNet to facial emotion recognition with minimal epochs and the significance of data diversity," 2022. DOI: 10.1038/s41598-022-11173-0. [Internet]. Disponible en: www.nature.com/scientificreports/.
dc.relationP. Ekman, Handbook of cognition and emotion, T. Dalgleish y M. J. Power, eds. 1999, cap. 3, pag. 843, ISBN: 0471978361. [Internet]. Disponible en: https://onlinelibrary.wiley.com/doi/10.1002/0470013494.ch3.
dc.relationA. Gandhi, K. Adhvaryu, S. Poria, E. Cambria y A. Hussain, "Multimodal sentiment analysis: A systematic review of history, datasets, multimodal fusion methods, applications, challenges and future directions," Information Fusion, vol. 91, pags. 424-444, mar. de 2023, ISSN: 1566-2535. DOI: 10.1016/J.INFFUS.2022.09.025.
dc.relationW. Graterol, J. Diaz-Amado, Y. Cardinale, I. Dongo, E. Lopes-Silva y C. Santos-Libarino, "Emotion Detection for Social Robots Based on NLP Transformers and an Emotion Ontology," Sensors, vol. 21, n.° 4, 2021, ISSN: 1424-8220. DOI: 10.3390/s21041322. [Internet]. Disponible en: https://www.mdpi.com/1424-8220/21/4/1322.
dc.relationK. Kim y S. Park, "AOBERT: All-modalities-in-One BERT for multimodal sentiment analysis," Information Fusion, vol. 92, pags. 37-45, abr. de 2023, ISSN: 15662535. DOI: 10.1016/j.inffus.2022.11.022.
dc.relationR. F. Livingstone SR, "The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS): A dynamic, multimodal set of facial and vocal expressions in North American English," PLoS ONE 13(5), 2018. DOI: 10.1371/journal.pone.0196391.
dc.relationG. Meena, K. K. Mohbey, A. Indian y S. Kumar, "Sentiment Analysis from Images using VGG19 based Transfer Learning Approach," Procedia Computer Science, vol. 204, pags. 411-418, 2022, ISSN: 18770509. DOI: 10.1016/j.procs.2022.08.050.
dc.relationZ. Yao, Z. Wang, W. Liu, Y. Liu y J. Pan, "Speech emotion recognition using fusion of three multitask learning-based classifiers: HSF-DNN, MS-CNN and LLD-RNN," Speech Communication, vol. 120, pags. 11-19, jun. de 2020, ISSN: 01676393. DOI: 10.1016/j.specom.2020.03.005.
dc.relationA. Zadeh, P. P. Liang, N. Mazumder, S. Poria, E. Cambria y L.-P. Morency, "Memory Fusion Network for Multi-view Sequential Learning," feb. de 2018. [Internet]. Disponible en: http://arxiv.org/abs/1802.00927.
dc.rightsAtribución-NoComercial 4.0 Internacional
dc.rightsAtribución-NoComercial 4.0 Internacional
dc.rightshttp://creativecommons.org/licenses/by-nc/4.0/
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightshttp://purl.org/coar/access_right/c_abf2
dc.titleDetección de emociones utilizando aprendizaje de máquina multimodal para mejorar la interacción humano-robot de Pepper
dc.typeTrabajo de grado - Pregrado


Este ítem pertenece a la siguiente institución