dc.contributorSilva, Rodrigo Luis de Souza da
dc.contributorhttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4769102Z1
dc.contributorVieira, Marcelo Bernardes
dc.contributorhttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4763472P6
dc.contributorMarturelli, Leandro Schaeffer
dc.contributorhttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4731465Z0
dc.contributorBorges, Carlos Cristiano Hasenclever
dc.contributorhttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4728257U5
dc.creatorCaetano, Felipe Andrade
dc.date2017-06-07T11:06:08Z
dc.date2017-06-06
dc.date2017-06-07T11:06:08Z
dc.date2014-08-29
dc.date.accessioned2023-09-29T15:50:58Z
dc.date.available2023-09-29T15:50:58Z
dc.identifierhttps://repositorio.ufjf.br/jspui/handle/ufjf/4833
dc.identifier.urihttps://repositorioslatinoamericanos.uchile.cl/handle/2250/9132870
dc.descriptionDense trajectories has been shown as a very promising method in the human action recognition area. Based on that, we propose a new kind of video descriptor, calculated from the relationship between the trajectory’s optical flow with the gradient field in its neighborhood and its spatio-temporal location. Orientation tensors are used to accumulate relevant information over the video, representing the tendency of direction for that kind of movement. Furthermore, a method to cluster trajectories using their shape is proposed. This allow us to accumulate different motion patterns in different tensors and easier distinguish trajectories that are created by real movements from the trajectories generated by the camera’s movement. The proposed method is capable to achieve the best known recognition rates for methods based on the self-descriptor constraint in popular datasets — Hollywood2 (up to 46%) and KTH (up to 94%).
dc.descriptionTrajetórias densas têm se mostrado um método extremamente promissor na área de reconhecimento de ações humanas. Baseado nisso, propomos um novo tipo de descritor de vídeos, calculado a partir da relação do fluxo ótico que compõe a trajetória com o gradiente de sua vizinhança e sua localidade espaço-temporal. Tensores de orientação são usados para acumular informação relevante ao longo do vídeo, representando tendências de direção do descritor para aquele tipo de movimento. Além disso, um método para aglomerar trajetórias usando o seu formato como métrica é proposto. Isso permite acu- mular características de movimentos distintos em tensores separados e diferenciar com maior facilidade trajetórias que são criadas por movimentos reais das que são geradas a partir do movimento de câmera. O método proposto foi capaz de atingir os melhores níveis de reconhecimento conhecidos para métodos com a restrição de métodos autodescritores em bases populares — Hollywood2 (Acima de 46%) e KTH (Acima de 94%).
dc.formatapplication/pdf
dc.languagepor
dc.publisherUniversidade Federal de Juiz de Fora (UFJF)
dc.publisherBrasil
dc.publisherICE – Instituto de Ciências Exatas
dc.publisherPrograma de Pós-graduação em Ciência da Computação
dc.publisherUFJF
dc.rightsAcesso Aberto
dc.subjectTrajetórias densas
dc.subjectReconhecimento de ações humanas em vídeos
dc.subjectAutodescritor
dc.subjectTensor de orientação
dc.subjectDense trajectories
dc.subjectHuman action recognition in videos
dc.subjectSelf-descriptor
dc.subjectOrientation tensor
dc.subjectClustering
dc.subjectCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
dc.titleA video descriptor using orientation tensors and shape-based trajectory clustering
dc.typeDissertação


Este ítem pertenece a la siguiente institución