dc.contributorVieira, Marcelo Bernardes
dc.contributorhttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4763472P6
dc.contributorSilva, Rodrigo Luis de Souza da
dc.contributorhttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4769102Z1
dc.contributorMachado, Alex Fernandes da Veiga
dc.contributorhttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4269492D5
dc.contributorFonseca Neto, Raul
dc.contributorhttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4786482Y2
dc.creatorFigueiredo, Ana Mara de Oliveira
dc.date2017-06-01T11:48:59Z
dc.date2017-05-30
dc.date2017-06-01T11:48:59Z
dc.date2015-09-10
dc.date.accessioned2023-09-29T16:38:04Z
dc.date.available2023-09-29T16:38:04Z
dc.identifierhttps://repositorio.ufjf.br/jspui/handle/ufjf/4785
dc.identifier.urihttps://repositorioslatinoamericanos.uchile.cl/handle/2250/9137762
dc.descriptionHuman action recognition is a challenging problem in Computer Vision which has many potential applications. In order to describe the main movement of the video a new motion descriptor is proposed in this work. We combine two methods for estimating the motion between frames: block matching and brightness gradient of image. In this work we use a variable size block matching algorithm to extract displacement vectors as a motion information. The cross product between the block matching vector and the gra dient is used to obtain the displacement vectors. These vectors are computed in a frame sequence, obtaining the block trajectory which contains the temporal information. The block matching vectors are also used to cluster the sparse trajectories according to their shape. The proposed method computes this information to obtain orientation tensors and to generate the final descriptor. It is called self-descriptor because it depends only on the input video. The global tensor descriptor is evaluated by classification of KTH, UCF11 and Hollywood2 video datasets with a non-linear SVM classifier. Results indicate that our sparse trajectories method is competitive in comparison to the well known dense tra jectories approach, using orientation tensors, besides requiring less computational effort.
dc.descriptionO reconhecimento de ações humanas é um problema desafiador em visão computacional que tem potenciais áreas de aplicações. Para descrever o principal movimento do vídeo um novo descritor de movimento é proposto neste trabalho. Este trabalho combina dois métodos para estimar o movimento entre as imagens: casamento de blocos e de gradiente de intensidade de brilho da imagem. Neste trabalho usa-se um algoritmo de casamento de blocos de tamanho variável para extrair vetores de deslocamento, os quais contém a informação de movimento. Estes vetores são computados em uma sequência de frames obtendo a trajetória do bloco, que possui a informação temporal. Os vetores obtidos através do casamento de blocos são usados para clusterizar as trajetórias esparsas de acordo com a forma. O método proposto computa essa informação para obter tensores de orientação e gerar o descritor final. Este descritor é chamado de autodescritor porque depende apenas do vídeo de entrada. O tensor usado como descritor global é avaliado através da classificação dos vídeos das bases de dados KTH, UCF11 e Hollywood2 com o classificador não linear SVM. Os resultados indicam que este método de trajetórias esparsas é competitivo comparado ao já conhecido método de trajetórias densas, usando tensores de orientação, além de requerer menos esforço computacional.
dc.descriptionCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
dc.formatapplication/pdf
dc.languagepor
dc.publisherUniversidade Federal de Juiz de Fora (UFJF)
dc.publisherBrasil
dc.publisherICE – Instituto de Ciências Exatas
dc.publisherPrograma de Pós-graduação em Ciência da Computação
dc.publisherUFJF
dc.rightsAcesso Aberto
dc.subjectCasamento de blocos
dc.subjectReconhecimento de ações humanas
dc.subjectAutodescritor
dc.subjectTrajetórias esparsas e densas
dc.subjectClusterização de trajetórias
dc.subjectBlock Matching
dc.subjectHuman action recognition
dc.subjectSelf-descriptor
dc.subjectSparse and dense trajectories
dc.subjectTrajectory clustering
dc.subjectCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
dc.titleA video self-descriptor based on sparse trajectory clustering
dc.typeDissertação


Este ítem pertenece a la siguiente institución