dc.contributorLUIS ENRIQUE SUCAR SUCCAR
dc.creatorAUGUSTO MELÉNDEZ TEODORO
dc.date2011-01
dc.date.accessioned2023-07-25T16:22:07Z
dc.date.available2023-07-25T16:22:07Z
dc.identifierhttp://inaoe.repositorioinstitucional.mx/jspui/handle/1009/703
dc.identifier.urihttps://repositorioslatinoamericanos.uchile.cl/handle/2250/7805920
dc.descriptionSeveral methods for face detection have been developed with certain success, these methods typically include features like texture, skin color, some predefined templates or deformable templates, etc., however these tend to fail under “difficult” conditions such as partial occlusions and changes in orientation and illumination. We propose a novel technique for face detection based on a visual grammar. We first define a symbol relational grammar for faces, representing the visual elements of a face and their spatial relations. This grammar is then transformed to a Bayesian network representation. The structure of the Bayesian network is derived from the grammar, and its parameters are obtained from data, i.e., from positive and negative examples of faces. Then the Bayesian network is used for face detection via probabilistic inference, using as evidence a set of weak detectors for different face components. We evaluated our method on a set of sample images of faces under “difficult” conditions, and contrasted it with a simplified model without spatial relationships, and the AdaBoost face detector. The results show a significant improvement when using our method based on a visual grammar. Although the grammar is restricted to the representation of faces, it is possible to extend it to represent a complete person or other object.
dc.descriptionExisten varios métodos de detección de rostros que se han desarrollado con cierto éxito, estos métodos suelen incluir características como textura, color de la piel, plantillas predefinidas o deformables, etc.; sin embargo, estos tienden a fallar en condiciones difíciles, tales como oclusiones parciales y cambios en la orientación y la iluminación en los rostros de las imágenes. En esta tesis proponemos una nueva técnica para la detección de rostros basada en una gran ática visual. Primero, definimos una gramática simbólica–relacional para rostros, para poder representar los elementos visuales de un rostro y sus relaciones espaciales. Después, esta gramática se transforma en una representación con base en una red bayesiana. La estructura de la red bayesiana es derivada a partir de la gramática y sus parámetros se obtienen a partir de datos; es decir, a partir de ejemplos positivos y negativos de rostros. Luego la red bayesiana es utilizada para la detección de rostros a través de la inferencia probabilística, utilizando un conjunto de detectores débiles para los diferentes componentes del rostro. Evaluamos nuestro método utilizando un conjunto de imágenes de rostros en condiciones difíciles, y lo comparamos con un modelo simplificado sin relaciones espaciales, y el detector de rostros AdaBoost. Los resultados muestran una mejora significativa en la detección de rostros al usar nuestro método basado en una gramática visual. Aunque la gramática está restringida a la representación de rostros, es posible extenderla para representar a una persona completa u otro tipo de objetos.
dc.formatapplication/pdf
dc.languagespa
dc.publisherInstituto Nacional de Astrofísica, Óptica y Electrónica
dc.relationcitation:Melendez-Teodoro A.
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightshttp://creativecommons.org/licenses/by-nc-nd/4.0
dc.subjectinfo:eu-repo/classification/Redes bayesianas/Bayesian networks
dc.subjectinfo:eu-repo/classification/Gramáticas/Grammars
dc.subjectinfo:eu-repo/classification/Reconocimiento facial/Face recognition
dc.subjectinfo:eu-repo/classification/cti/1
dc.subjectinfo:eu-repo/classification/cti/12
dc.subjectinfo:eu-repo/classification/cti/1203
dc.subjectinfo:eu-repo/classification/cti/1203
dc.titleUna gramática visual para la detección de rostros
dc.typeinfo:eu-repo/semantics/masterThesis
dc.typeinfo:eu-repo/semantics/acceptedVersion
dc.audiencestudents
dc.audienceresearchers
dc.audiencegeneralPublic


Este ítem pertenece a la siguiente institución