Atenção: Todas as denúncias são sigilosas e sua identidade será preservada.
Os campos nome e e-mail são de preenchimento opcional
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Universidade Federal de São Carlos (UFSCar) | - |
Autor(es): dc.contributor | Universidade Estadual Paulista (Unesp) | - |
Autor(es): dc.contributor | Science and Technology of São Paulo | - |
Autor(es): dc.creator | Varges Da Silva, Murilo | - |
Autor(es): dc.creator | Nilceu Marana, Aparecido [UNESP] | - |
Data de aceite: dc.date.accessioned | 2022-02-22T00:24:12Z | - |
Data de disponibilização: dc.date.available | 2022-02-22T00:24:12Z | - |
Data de envio: dc.date.issued | 2020-12-11 | - |
Data de envio: dc.date.issued | 2020-12-11 | - |
Data de envio: dc.date.issued | 2019-10-01 | - |
Fonte completa do material: dc.identifier | http://dx.doi.org/10.1109/BRACIS.2019.00134 | - |
Fonte completa do material: dc.identifier | http://hdl.handle.net/11449/198320 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/11449/198320 | - |
Descrição: dc.description | The advances in video capture, storage and sharing technologies have caused a high demand in techniques for automatic recognition of humans actions. Among the main applications, we can highlight surveillance in public places, detection of falls in the elderly, no-checkout-required stores (Amazon Go), self-driving car, inappropriate content posted on the Internet, etc. The automatic recognition of human actions in videos is a challenging task because in order to obtain a good result one has to work with spatial information (e.g., shapes found in a single frame) and temporal information (e.g., movements found across frames). In this work, we present a simple methodology for describing human actions in videos that use extracted data from 2-Dimensional poses. The experimental results show that the proposed technique can encode spatial and temporal information, obtaining competitive accuracy rates compared to state-of-the-art methods. | - |
Descrição: dc.description | Federal University of São Carlos - UFSCar | - |
Descrição: dc.description | Faculty of Sciences - UNESP | - |
Descrição: dc.description | Federal Institute of Education Science and Technology of São Paulo | - |
Descrição: dc.description | Faculty of Sciences - UNESP | - |
Formato: dc.format | 747-752 | - |
Idioma: dc.language | en | - |
Relação: dc.relation | Proceedings - 2019 Brazilian Conference on Intelligent Systems, BRACIS 2019 | - |
???dc.source???: dc.source | Scopus | - |
Palavras-chave: dc.subject | Human action recognition | - |
Palavras-chave: dc.subject | Spatio-temporal features | - |
Palavras-chave: dc.subject | Surveillance systems | - |
Palavras-chave: dc.subject | Video sequences | - |
Título: dc.title | Human action recognition using 2D poses | - |
Aparece nas coleções: | Repositório Institucional - Unesp |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: