dc.creatorSalazar, Isail
dc.creatorPertuz, Said
dc.creatorMartínez , Fabio
dc.date.accessioned2021-04-21T16:55:18Z
dc.date.accessioned2022-09-29T12:41:54Z
dc.date.available2021-04-21T16:55:18Z
dc.date.available2022-09-29T12:41:54Z
dc.date.created2021-04-21T16:55:18Z
dc.date.issued2020-05-15
dc.identifierhttp://hdl.handle.net/20.500.12622/4616
dc.identifier.urihttp://repositorioslatinoamericanos.uchile.cl/handle/2250/3751694
dc.description.abstractLos algoritmos clásicos de segmentación de imágenes explotan la detección de similitudes y discontinuidades en diferentes señales visuales, para definir regiones de interés en imágenes. Sin embargo, debido a la alta variabilidad e incertidumbre en los datos de imagen, se dificulta generar resultados acertados. En otras palabras, la segmentación basada solo en color a menudo no es suficiente para un gran porcentaje de escenas reales. Este trabajo presenta una nueva estrategia de segmentación multi-modal que integra señales de profundidad y apariencia desde imágenes RGB-D, por medio de una representación jerárquica basada en regiones, es decir, un árbol de segmentación multi-modal (MM-tree). Para ello, la imagen RGB-D es descrita de manera complementaria por diferentes mapas de segmentación. A partir de la imagen de color, se implementa un árbol de segmentación de color (C-tree) para obtener mapas de segmentación y sobre-segmentación. Desde de la imagen de profundidad, se derivan dos mapas de segmentación independientes, los cuales se basan en el cálculo de primitivas de planos y de bordes 3D. Seguidamente, un proceso de fusión jerárquico de regiones permite agrupar de manera local los mapas obtenidos anteriormente en el MM-tree. Por último, el nivel superior emergente del MM-tree integra coherentemente la información disponible en los mapas de profundidad y apariencia. Los experimentos se realizaron con el conjunto de imágenes RGB-D del NYU-Depth V2, evidenciando resultados competitivos, con respecto a los métodos de segmentación del estado del arte. Específicamente, en las imágenes de prueba, se obtuvieron puntajes promedio de 0.56 en la medida de Segmentation Covering y 2.13 en Variation of Information.
dc.languagespa
dc.languageeng
dc.publisherInstituto Tecnológico Metropolitano - ITM
dc.relationTecnoLógicas
dc.relationhttps://revistas.itm.edu.co/index.php/tecnologicas/article/view/1538
dc.relation10.22430/22565337.1538
dc.rightsCopyright (c) 2020 TecnoLógicas
dc.rightshttp://creativecommons.org/licenses/by-nc-sa/4.0
dc.source2256-5337
dc.source0123-7799
dc.sourceTecnoLógicas; Vol. 23 No. 48 (2020); 143-161
dc.sourceTecnoLógicas; Vol. 23 Núm. 48 (2020); 143-161
dc.subjectSegmentación de imágenes
dc.subjectsobre-segmentación
dc.subjectimágenes RGB-D
dc.subjectinformación de profundidad
dc.subjectsegmentación multi-modal
dc.titleMulti-modal RGB-D Image Segmentation from Appearance and Geometric Depth Maps
dc.typeinfo:eu-repo/semantics/article
dc.typeinfo:eu-repo/semantics/publishedVersion
dc.typeArticles


Este ítem pertenece a la siguiente institución