Atenção: Todas as denúncias são sigilosas e sua identidade será preservada.
Os campos nome e e-mail são de preenchimento opcional
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Universidade Federal de São Carlos (UFSCar) | - |
Autor(es): dc.contributor | Science and Technology of São Paulo | - |
Autor(es): dc.contributor | Universidade Estadual Paulista (Unesp) | - |
Autor(es): dc.creator | Varges da Silva, Murilo | - |
Autor(es): dc.creator | Nilceu Marana, Aparecido [UNESP] | - |
Data de aceite: dc.date.accessioned | 2022-02-22T00:26:26Z | - |
Data de disponibilização: dc.date.available | 2022-02-22T00:26:26Z | - |
Data de envio: dc.date.issued | 2020-12-11 | - |
Data de envio: dc.date.issued | 2020-12-11 | - |
Data de envio: dc.date.issued | 2020-10-01 | - |
Fonte completa do material: dc.identifier | http://dx.doi.org/10.1016/j.asoc.2020.106513 | - |
Fonte completa do material: dc.identifier | http://hdl.handle.net/11449/199093 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/11449/199093 | - |
Descrição: dc.description | Currently, there is a large number of methods that use 2D poses to represent and recognize human action in videos. Most of these methods use information computed from raw 2D poses based on the straight line segments that form the body parts in a 2D pose model in order to extract features (e.g., angles and trajectories). In our work, we propose a new method of representing 2D poses. Instead of directly using the straight line segments, firstly, the 2D pose is converted to the parameter space in which each segment is mapped to a point. Then, from the parameter space, spatiotemporal features are extracted and encoded using a Bag-of-Poses approach, then used for human action recognition in the video. Experiments on two well-known public datasets, Weizmann and KTH, showed that the proposed method using 2D poses encoded in parameter space can improve the recognition rates, obtaining competitive accuracy rates compared to state-of-the-art methods. | - |
Descrição: dc.description | Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) | - |
Descrição: dc.description | Department of Computing UFSCar - Federal University of São Carlos, Rod. Washington Luís, Km 235 | - |
Descrição: dc.description | Department of Computing IFSP - Federal Institute of Education Science and Technology of São Paulo, Rua Pedro Cavalo, 709 | - |
Descrição: dc.description | Department of Computing Faculty of Sciences UNESP - São Paulo State University, Av. Eng. Luiz Edmundo Carrijo Coube, 14-01 | - |
Descrição: dc.description | Department of Computing Faculty of Sciences UNESP - São Paulo State University, Av. Eng. Luiz Edmundo Carrijo Coube, 14-01 | - |
Idioma: dc.language | en | - |
Relação: dc.relation | Applied Soft Computing Journal | - |
???dc.source???: dc.source | Scopus | - |
Palavras-chave: dc.subject | Bag-of-poses | - |
Palavras-chave: dc.subject | Human action recognition | - |
Palavras-chave: dc.subject | Spatiotemporal features | - |
Palavras-chave: dc.subject | Surveillance systems | - |
Palavras-chave: dc.subject | Video sequences | - |
Título: dc.title | Human action recognition in videos based on spatiotemporal features and bag-of-poses | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositório Institucional - Unesp |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: