dc.creator | Salazar, Isail | |
dc.creator | Pertuz, Said | |
dc.creator | Martínez , Fabio | |
dc.date.accessioned | 2021-04-21T16:55:18Z | |
dc.date.accessioned | 2022-09-29T12:41:54Z | |
dc.date.available | 2021-04-21T16:55:18Z | |
dc.date.available | 2022-09-29T12:41:54Z | |
dc.date.created | 2021-04-21T16:55:18Z | |
dc.date.issued | 2020-05-15 | |
dc.identifier | http://hdl.handle.net/20.500.12622/4616 | |
dc.identifier.uri | http://repositorioslatinoamericanos.uchile.cl/handle/2250/3751694 | |
dc.description.abstract | Los algoritmos clásicos de segmentación de imágenes explotan la detección de similitudes y discontinuidades en diferentes señales visuales, para definir regiones de interés en imágenes. Sin embargo, debido a la alta variabilidad e incertidumbre en los datos de imagen, se dificulta generar resultados acertados. En otras palabras, la segmentación basada solo en color a menudo no es suficiente para un gran porcentaje de escenas reales. Este trabajo presenta una nueva estrategia de segmentación multi-modal que integra señales de profundidad y apariencia desde imágenes RGB-D, por medio de una representación jerárquica basada en regiones, es decir, un árbol de segmentación multi-modal (MM-tree). Para ello, la imagen RGB-D es descrita de manera complementaria por diferentes mapas de segmentación. A partir de la imagen de color, se implementa un árbol de segmentación de color (C-tree) para obtener mapas de segmentación y sobre-segmentación. Desde de la imagen de profundidad, se derivan dos mapas de segmentación independientes, los cuales se basan en el cálculo de primitivas de planos y de bordes 3D. Seguidamente, un proceso de fusión jerárquico de regiones permite agrupar de manera local los mapas obtenidos anteriormente en el MM-tree. Por último, el nivel superior emergente del MM-tree integra coherentemente la información disponible en los mapas de profundidad y apariencia. Los experimentos se realizaron con el conjunto de imágenes RGB-D del NYU-Depth V2, evidenciando resultados competitivos, con respecto a los métodos de segmentación del estado del arte. Específicamente, en las imágenes de prueba, se obtuvieron puntajes promedio de 0.56 en la medida de Segmentation Covering y 2.13 en Variation of Information. | |
dc.language | spa | |
dc.language | eng | |
dc.publisher | Instituto Tecnológico Metropolitano - ITM | |
dc.relation | TecnoLógicas | |
dc.relation | https://revistas.itm.edu.co/index.php/tecnologicas/article/view/1538 | |
dc.relation | 10.22430/22565337.1538 | |
dc.rights | Copyright (c) 2020 TecnoLógicas | |
dc.rights | http://creativecommons.org/licenses/by-nc-sa/4.0 | |
dc.source | 2256-5337 | |
dc.source | 0123-7799 | |
dc.source | TecnoLógicas; Vol. 23 No. 48 (2020); 143-161 | |
dc.source | TecnoLógicas; Vol. 23 Núm. 48 (2020); 143-161 | |
dc.subject | Segmentación de imágenes | |
dc.subject | sobre-segmentación | |
dc.subject | imágenes RGB-D | |
dc.subject | información de profundidad | |
dc.subject | segmentación multi-modal | |
dc.title | Multi-modal RGB-D Image Segmentation from Appearance and Geometric Depth Maps | |
dc.type | info:eu-repo/semantics/article | |
dc.type | info:eu-repo/semantics/publishedVersion | |
dc.type | Articles | |