Atenção: Todas as denúncias são sigilosas e sua identidade será preservada.
Os campos nome e e-mail são de preenchimento opcional
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Universidade Estadual Paulista (Unesp) | - |
Autor(es): dc.contributor | NTNU - Norwegian University of Science and Technology | - |
Autor(es): dc.creator | Pedronette, Daniel Carlos Guimarães [UNESP] | - |
Autor(es): dc.creator | Valem, Lucas Pascotti [UNESP] | - |
Autor(es): dc.creator | Torres, Ricardo da S. | - |
Data de aceite: dc.date.accessioned | 2022-02-22T00:47:40Z | - |
Data de disponibilização: dc.date.available | 2022-02-22T00:47:40Z | - |
Data de envio: dc.date.issued | 2021-06-25 | - |
Data de envio: dc.date.issued | 2021-06-25 | - |
Data de envio: dc.date.issued | 2021-03-01 | - |
Fonte completa do material: dc.identifier | http://dx.doi.org/10.1016/j.patcog.2020.107666 | - |
Fonte completa do material: dc.identifier | http://hdl.handle.net/11449/206629 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/11449/206629 | - |
Descrição: dc.description | Contextual information, defined in terms of the proximity of feature vectors in a feature space, has been successfully used in the construction of search services. These search systems aim to exploit such information to effectively improve ranking results, by taking into account the manifold distribution of features usually encoded. In this paper, a novel unsupervised manifold learning is proposed through a similarity representation based on ranking references. A breadth-first tree is used to represent similarity information given by ranking references and is exploited to discovery underlying similarity relationships. As a result, a more effective similarity measure is computed, which leads to more relevant objects in the returned ranked lists of search sessions. Several experiments conducted on eight public datasets, commonly used for image retrieval benchmarking, demonstrated that the proposed method achieves very high effectiveness results, which are comparable or superior to the ones produced by state-of-the-art approaches. | - |
Descrição: dc.description | Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) | - |
Descrição: dc.description | Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) | - |
Descrição: dc.description | Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) | - |
Descrição: dc.description | Department of Statistics Applied Mathematics and Computing (DEMAC) São Paulo State University (UNESP) | - |
Descrição: dc.description | Department of ICT and Natural Sciences Faculty of Information Technology and Electrical Engineering NTNU - Norwegian University of Science and Technology | - |
Descrição: dc.description | Department of Statistics Applied Mathematics and Computing (DEMAC) São Paulo State University (UNESP) | - |
Descrição: dc.description | FAPESP: #2014/12236-1 | - |
Descrição: dc.description | FAPESP: #2015/24494-8 | - |
Descrição: dc.description | FAPESP: #2016/50250-1 | - |
Descrição: dc.description | FAPESP: #2017/20945-0 | - |
Descrição: dc.description | FAPESP: #2017/25908-6 | - |
Descrição: dc.description | FAPESP: #2018/15597-6 | - |
Descrição: dc.description | CNPq: #307560/2016-3 | - |
Descrição: dc.description | CNPq: #308194/2017-9 | - |
Descrição: dc.description | CAPES: #88881.145912/2017-01 | - |
Idioma: dc.language | en | - |
Relação: dc.relation | Pattern Recognition | - |
???dc.source???: dc.source | Scopus | - |
Palavras-chave: dc.subject | Content-based image retrieval | - |
Palavras-chave: dc.subject | Ranking references | - |
Palavras-chave: dc.subject | Tree representation | - |
Palavras-chave: dc.subject | Unsupervised manifold learning | - |
Título: dc.title | A BFS-Tree of ranking references for unsupervised manifold learning | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositório Institucional - Unesp |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: