dc.creatorZeng, Rui
dc.creatorWang, Yingyan
dc.creatorWang, Wanliang
dc.date.accessioned2019-07-02T21:54:06Z
dc.date.available2019-07-02T21:54:06Z
dc.date.created2019-07-02T21:54:06Z
dc.date.issued2018-01-01
dc.identifierISSN: 2339-3459
dc.identifierhttps://repositorio.unal.edu.co/handle/unal/63561
dc.identifierhttp://bdigital.unal.edu.co/64007/
dc.description.abstractAlthough scholars have conducted numerous researches on content-based image retrieval and obtained great achievements, they make little progress in studying remote sensing image retrieval. Both theoretical and application systems are immature. Since remote sensing images are characterized by large data volume, broad coverage, vague themes and rich semantics, the research results on natural images and medical images cannot be directly used in remote sensing image retrieval. Even perfect content-based remote sensing image retrieval systems have many difficulties with data organization, storage and management, feature description and extraction, similarity measurement, relevance feedback, network service mode, and system structure design and implementation. This paper proposes a remote sensing image retrieval algorithm that combines co-occurrence region based Bayesian network image retrieval with average high-frequency signal strength. By Bayesian networks, it establishes correspondence relationships between images and semantics, thereby realizing semantic-based retrieval of remote sensing images. In the meantime, integrated region matching is introduced for iterative retrieval, which effectively improves the precision of semantic retrieval.
dc.description.abstractA pesar de que muchos investigadores han realizado numerosos trabajos sobre la consulta de imágenes mediante ejemplo y han obtenido grandes logros, poco se ha avanzado en la recuperación de imágenes por teledetección. Tanto la teoría como la aplicación de los sistemas son inmaduros. Ya que las imágenes por teledetección se caracterizan por un gran volumen de información, amplia cobertura, temas difusos y semántica abundante, los resultados de las investigaciones en imágenes naturales e imágenes médicas estos no pueden ser usados directamente en la recuperación de imágenes por teledetección. Incluso en una consulta perfecta de imágenes mediante ejemplo, los sistemas tienen muchas dificultades con la organización de información, almacenamiento y manejo, descripción de características y extracción, medición de similitudes, retroalimentación relevante, modo de servicio de red y diseño e implementación del sistema estructural. Este artículo propone un algoritmo de recuperación de imágenes por teledetección que combina la coocurrencia local de una red bayesiana de recuperación de imagénes con el promedio de potencia de la señal de alta frecuencia. Por las redes bayesianas, se establecen las relaciones de correspondencia entre imágenes y semántica, además de permitir la recuperación de imágenes de teledetección a través de la semántica. Mientras tanto, se desarrolló el módulo de región integrada para la recuperación repetitiva, lo que mejora efectivamente la precisión de la recuperación semántica.
dc.languagespa
dc.publisherUniversidad Nacional de Colombia - Sede Bogotá - Facultad de Ciencias - Departamento de Geociencia
dc.relationUniversidad Nacional de Colombia Revistas electrónicas UN Earth Sciences Research Journal
dc.relationEarth Sciences Research Journal
dc.relationZeng, Rui and Wang, Yingyan and Wang, Wanliang (2018) A co-occurrence region based Bayesian network stepwise remote sensing image retrieval algorithm. Earth Sciences Research Journal, 22 (1). pp. 29-35. ISSN 2339-3459
dc.relationhttps://revistas.unal.edu.co/index.php/esrj/article/view/66107
dc.rightsAtribución-NoComercial 4.0 Internacional
dc.rightshttp://creativecommons.org/licenses/by-nc/4.0/
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightsDerechos reservados - Universidad Nacional de Colombia
dc.titleA co-occurrence region based Bayesian network stepwise remote sensing image retrieval algorithm
dc.typeArtículo de revista


Este ítem pertenece a la siguiente institución