dc.contributorSegura Quijano, Fredy Enrique
dc.contributorGarcía Cárdenas, Juan José
dc.contributorSotelo Briceño, Diana Camila
dc.creatorZambrano Salamanca, Dylan Mateo
dc.date.accessioned2023-07-24T13:59:18Z
dc.date.accessioned2023-09-07T00:50:35Z
dc.date.available2023-07-24T13:59:18Z
dc.date.available2023-09-07T00:50:35Z
dc.date.created2023-07-24T13:59:18Z
dc.date.issued2023-06-30
dc.identifierhttp://hdl.handle.net/1992/68671
dc.identifierinstname:Universidad de los Andes
dc.identifierreponame:Repositorio Institucional Séneca
dc.identifierrepourl:https://repositorio.uniandes.edu.co/
dc.identifier.urihttps://repositorioslatinoamericanos.uchile.cl/handle/2250/8727859
dc.description.abstractEste documento propone un enfoque novedoso de realidad aumentada para la creación de objetos virtuales como metodología de aprendizaje y herramienta interactiva para población discapacidad visual, tomando como punto de partida la creación de cuerpos geométricos básicos. El sistema se basa en la navegación inercial de un sensor IMU ubicado en la palma de la mano, cuya posición es comparada con cuerpos creados en el espacio por medio de su representación matemática. La navegación inercial es realizada a través de seguimiento de posición por doble integración, implementación de filtro AHRS y eliminación de deriva a partir de la identificación de periodos de movimiento. La retroalimentación háptica es realizada mediante estimulación ejercida por motores de vibración de acuerdo con estados de interacción definidos por la identificación de la posición del sensor en volúmenes en torno a la superficie del cuerpo. Se compartirán públicamente los códigos y las bases de datos para facilitar futuras investigaciones.
dc.languagespa
dc.publisherUniversidad de los Andes
dc.publisherIngeniería Electrónica
dc.publisherFacultad de Ingeniería
dc.publisherDepartamento de Ingeniería Eléctrica y Electrónica
dc.relationOrganización Mundial de la Salud (OMS). (2022). Ceguera y discapacidad visual. Recuperado el 10 de junio, 2023, de https://www.who.int/es/news-room/fact-sheets/detail/blindness-and-visual-impairment
dc.relationMani M. N. (1998). The role of integrated education for blind children. Community eye health, 11(27), 41- 42.
dc.relationAckland, P., Resnikoff, S., & Bourne, R. (2017). World blindness and visual impairment: despite many successes, the problem is growing. Community eye health, 30(100), 71- 73.
dc.relationCarboni, S., Kennedy, J. M. y Wnuczko, M. (2023). Parallel and sideways inverse perspective drawing of a cube top: By an adult who is blind. British Journal of Visual Impairment, 41(1), 49-55. https://doi-org.ezproxy.uniandes.edu.co/ 10.1177/02646196211009934
dc.relationInstituto Nacional para Ciegos (INCI). (2019). Reconocimiento de la fauna colombiana. Recuperado el junio 12, 2023, de https://inci.gov.co/reconocimiento-de-la-fauna-colombiana?fbclid=IwAR1-6mjYK2n9ooBCI2Qy0ItSdsPxoNPZpKtxi7G6gSEjwmUxto5uyPKrEWc
dc.relationInstituto Nacional para Ciegos (INCI). (n.d). Ayudas táctiles en Ciencias sociales para estudiantes con discapacidad visual. Recuperado en junio 12, 2023, desde https://inci.gov.co/ayudas-tactiles-en-ciencias-sociales-para-estudiantes-con-discapacidad-visual?fbclid=IwAR0 KqAE9PRzNlVhT_FtQYc6DV9XsurG t44kJHkA-M6MR-krMOabr3OaTgwA
dc.relationHu Danli. (2017). Touching The Void. Design and Thechnology (MFA). The New School of Parsons. Recuperado el enero 25, 2023, de https://www.newschool.edu/parsons/profile/danli-hu/
dc.relationMeta Platforms, Inc. (2022, July 26). Meta Quest 2 Pricing Changes, 'Beat Saber' Included for a Limited Time. Oculus. Recuperado el 12 de octubre, 2022, de https://www.oculus.com/blog/meta-quest-2-pricing-changes/
dc.relationMeta Platforms, Inc. (2019). Powered by AI: Oculus Insights. Meta AI. Recuperado el 14 de octubre, 2022, de https://ai.facebook.com/blog/powered-by-ai-oculus-insight/
dc.relationMicrosoft. (2022). Microsoft HoloLens - Tecnología de realidad mixta para empresas. Recuperado el 28 de julio, 2022, desde https://www.microsoft.com/es-es/hololens
dc.relationLo Valvo, A., Croce, D., Garlisi, D., Giuliano, F., Giarré, L., & Tinnirello, I. (2021). A Navigation and Augmented Reality System for Visually Impaired People. Sensors, 21(9), 3061. MDPI AG. Retrieved from http://dx.doi.org/10.3390/s21093061
dc.relationA. K. Gary Bradski. (2008). Learning OpenCV: Computer Vision with the OpenCV Library. O'Reilly Media.
dc.relationMediaPipe. (s.f.). Home - MediaPipe. Recuperado el 17 de agosto de 2022, de https://mediapipe.dev/
dc.relationTensorFlow. (s.f.). Introducción a TensorFlow, Porqué Tensor Flow. Recuperado el julio 12, 2022, de https://www.tensorflow.org/about?hl=es-419
dc.relationUltraleap. (s.f.). Ultraleap 3Di - Ultraleap Datasheet. Recuperado el 24 de julio, 2022, de https://www.ultraleap.com/product/ultraleap-3di/
dc.relationMadgwick, Sebastian O. H. (2014). AHRS algorithms and calibration solutions to facilitate new applications using low-cost MEMS. Ph.D. Thesis. University of Bristol. ISNI: 0000 0004 5920 8762. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.681552
dc.relationXio Technologies. (2023). Fusion. Sensor fusion library for Inertial Measurement Units (IMUs), optimized for embedded systems. Recuperado el 20 de enero de https://github.com/xioTechnologies/Fusion
dc.relationXio Technologies. (2023). Gait-Tracking. IMU´s position tracking attached to a subject's foot during walking using Python. Recuperado el 20 de enero de https://github.com/xioTechnologies/Gait-Tracking/tree/85ad848e1164200b669f5a17acfc2172017c710d
dc.relationSee, A. R., Choco, J. A. G., & Chandramohan, K. (2022). Touch, Texture and Haptic Feedback: A Review on How We Feel the World around Us. Applied Sciences, 12(9), 4686. MDPI AG. Retrieved from http://dx.doi.org/10.3390/app12094686
dc.relationB haptics. (s.f.). Tact suit - x40, B haptics. Recuperado el 21 de enero, 2023, de https://www.bhapt ics .com/tactsuit/tactsuit-x40
dc.relationWeart. (s.f.). Touch Diver, Weart. Recuperado el 21 de enero, 2023, de https://www.weart. it/touchdiver/A
dc.relationUltraleap. (s.f.). Stratos Inspire, Ultraleap. Recuperado el 21 de enero, 2023, de https://www.ultra leap.com/haptics/
dc.relationInvenSense. (2016). MPU-9250 Product Specification. Revision 1.1.
dc.relationInvenSense. (2012). MPU-6000 and MPU-6050 Product Specification. Revision 3.3.
dc.relationBosch Sensortech. (2016). BNO055 datasheet. Intelligent 9-axis absolute orientation sensor.
dc.relationVybronics. (2020). VC1018B001L, Coin type vibration motor.
dc.relationEspressif Systems. (2023). ESP32 Series datasheet. Version 4.2.
dc.relationArduino. (s.f.). Arduino Nano User Manual. Version 2.3.
dc.relationFCI Semiconductor. (s.f.). 2N2222A Datasheet descripción. NPN general purpose transistor.
dc.relationAdafruit industries. (2023). Adafruit_MPU6050. Biblioteca de acceso a la información del sensor mpu 6050. Recuperado el 3 de febrero, 2023, de https://github.com/adafruit/Adafruit_MPU6050
dc.relationShillehbean. (2022). gyro_calibration_mpu6050. Calibrating the Gyroscope Under Steady Conditions. Recuperado el 27 de marzo, 2023, de https://github.com/shillehbean/youtube-channel/blob/main/gyro_ca libration_mpu6050.py
dc.relationShillehbean. (2022). linear_accel_calibration. Calibrating the Gyroscope Under Steady Conditions. Recuperado el 27 de marzo, 2023, de https://github.com/shillehbean/youtube-channel/blob/main/linear_a ccel_calibration.py
dc.rightsAtribución 4.0 Internacional
dc.rightsAtribución 4.0 Internacional
dc.rightshttp://creativecommons.org/licenses/by/4.0/
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightshttp://purl.org/coar/access_right/c_abf2
dc.titleCreación de objetos virtuales basados en un sistema de visualización háptica volumétrica y un sistema de seguimiento de posición para procesos de aprendizaje y recreación de población con discapacidad visual
dc.typeTrabajo de grado - Pregrado


Este ítem pertenece a la siguiente institución