dc.contributorBarcelos, Célia Aparecida Zorzo
dc.contributorhttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4721460A8
dc.contributorFerrari, Ricardo José
dc.contributorhttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4723423Y3
dc.contributorBruno, Odemir Martinez
dc.contributorhttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4790593P1
dc.contributorRibeiro, Eraldo
dc.creatorSilva, Núbia Rosa da
dc.date2016-06-22T18:32:19Z
dc.date2011-02-11
dc.date2016-06-22T18:32:19Z
dc.date2010-05-28
dc.date.accessioned2023-09-28T21:05:20Z
dc.date.available2023-09-28T21:05:20Z
dc.identifierSILVA, Núbia Rosa da. Identificação de Trajetórias Espaço-Temporais de Movimentos em Vídeo. 2010. 89 f. Dissertação (Mestrado em Ciências Exatas e da Terra) - Universidade Federal de Uberlândia, Uberlândia, 2010.
dc.identifierhttps://repositorio.ufu.br/handle/123456789/12502
dc.identifier.urihttps://repositorioslatinoamericanos.uchile.cl/handle/2250/9063836
dc.descriptionThe goal of this work is to identify flow lines of moving objects in videos. These flows can then be used to represent the underlying movement. Unlike studies using shapebased representations, our work uses the image information inside and outside the object to build denser flows for motion representation. We begin by segmenting each video frame into a large set of non-overlapping uniform-color and texture regions called superpixels. Then, each superpixel is characterized as a model appearance and is represented by its centroid. These superpixels are then tracked over a number of frames to generate flow lines. Tracking is done using a function that calculates the cost of matching corresponding regions in subsequent frames, taking into account both the correspondence between regions and the consistency of their neighborhoods. The ideas reported in this work can be applied to the task of creating motion patterns, which in turn are important for identifying complex movements of objects and predict behavior. Experiments are performed on a set of synthetic and real-world motion sequences.
dc.descriptionMestrado em Ciência da Computação
dc.descriptionO objetivo deste trabalho é identificar trajetórias de objetos em movimento em vídeos. As trajetórias podem ser usadas para representar o movimento. Ao contrário de estudos com representações baseadas somente na forma, esta proposta utiliza informações de dentro e fora do objeto, não se limitando ao contorno do mesmo, para representação do movimento. O primeiro passo é segmentar cada frame do vídeo em um grande conjunto de regiões denominadas superpixels, que mantém características semelhantes de textura e brilho em cada região. Então, cada superpixel é caracterizado de acordo com um modelo de aparência e é representado por seu centróide. Estes superpixels são monitorados pelos frames do vídeo para gerar as trajetórias. O monitoramento é realizado utilizando uma função que calcula o custo de correspondência das regiões em frames subsequentes, levando em consideração a correspondência entre as regiões e a consistência de suas vizinhanças. As idéias relatadas neste trabalho podem ser aplicadas à tarefa de criar padrões de movimento, que são importantes para identificação de movimentos complexos de objetos e predizer comportamento. Experimentos são realizados em vídeos sintéticos e reais.
dc.formatapplication/pdf
dc.formatapplication/pdf
dc.languagepor
dc.publisherUniversidade Federal de Uberlândia
dc.publisherBR
dc.publisherPrograma de Pós-graduação em Ciência da Computação
dc.publisherCiências Exatas e da Terra
dc.publisherUFU
dc.rightsAcesso Aberto
dc.subjectFlluxo de movimento
dc.subjectTrajetórias
dc.subjectSuperpixel
dc.subjectMonitoramento
dc.subjectReconhecimento de movimento
dc.subjectProcessamento de imagens - Técnicas digitais
dc.subjectMotion flow
dc.subjectTrajectories
dc.subjectSuperpixel
dc.subjectTracking
dc.subjectMotion recognition
dc.subjectCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
dc.titleIdentificação de Trajetórias Espaço-Temporais de Movimentos em Vídeo
dc.typeDissertação


Este ítem pertenece a la siguiente institución