Dissertação
Métricas de qualidade de imagens sem referência utilizando atenção visual
Fecha
2014-07-22Registro en:
GARRIDO, Tainá Borges Andrade. Métricas de qualidade de imagens sem referência utilizando atenção visual. 2014. xxiii, 81 f., il. Dissertação (Mestrado em Engenharia em Sistemas Eletrônicos e de Automação)—Universidade de Brasília, Brasília, 2014.
Autor
Garrido, Tainá Borges Andrade
Institución
Resumen
A qualidade da imagem está associada a capacidade do Sistema Visual Humano (SVH) perceber degradações. Muitas métricas de qualidade se utilizam da comparação com a imagem original para mensurar a qualidade da imagem degradada. Estas métricas são conhecidas como métricas com referência ou referenciadas. Infelizmente, em aplicações práticas nem sempre se dispõe da imagem de referência para a avaliação da qualidade. Dessa forma, muitas pesquisas têm sido desenvolvidas com a finalidade de criar e implementar métricas de avaliação objetivas sem-referência ou não referenciadas. Naturalmente, por não utilizar a referência (original) para estimar a qualidade, estas métricas são menos precisas que as métricas com referência. Neste contexto, o presente trabalho tem o objetivo de melhorar o desempenho de métricas de qualidade sem-referência disponíveis na literatura. Com este fim, apresentamos uma proposta de aperfeiçoamento destas métricas utilizando modelos computacionais de atenção visual. Com este objetivo, foram empregadas estratégias de combinação da imagem degradada com os respectivos mapas de saliência gerados pelos modelos de atenção visual. Os experimentos realizados através de simulações computacionais apontam que enfatizar as áreas mais relevantes (ou mais salientes) da imagem é uma estratégia eficaz para melhorar o desempenho de métricas existentes. _______________________________________________________________________________________ ABSTRACT Image quality is frequently associated with the ability of the Human Visual System (HVS) to perceive degradations. In the last few years, several image quality metrics have been proposed that use the original image (or reference) to estimate image quality. These metrics are known as full-reference (FR) metrics. Unfortunately, the reference is not always available in practical application. The alternative consists of using no-reference (NR) image quality metrics that blindly estimate the quality of an image, without having access to the original image. These metrics, in general, have a lower performance when compared to FR image quality metrics. The goal of this work is to improve the performance of no-reference image quality metrics using visual attention computational models. With this goal, we present strategies that consist of combining the test image with saliency maps generated by visual attention models. Experimental results indicate that the proposed approach can be an effective strategy for improving the performance of existing objective metrics.