Atenção: Todas as denúncias são sigilosas e sua identidade será preservada.
Os campos nome e e-mail são de preenchimento opcional
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Universidade Estadual Paulista (Unesp) | - |
Autor(es): dc.contributor | Temple University | - |
Autor(es): dc.creator | Pedronette, Daniel Carlos Guimarães [UNESP] | - |
Autor(es): dc.creator | Latecki, Longin Jan | - |
Data de aceite: dc.date.accessioned | 2022-02-22T00:48:39Z | - |
Data de disponibilização: dc.date.available | 2022-02-22T00:48:39Z | - |
Data de envio: dc.date.issued | 2021-06-25 | - |
Data de envio: dc.date.issued | 2021-06-25 | - |
Data de envio: dc.date.issued | 2021-03-01 | - |
Fonte completa do material: dc.identifier | http://dx.doi.org/10.1016/j.ipm.2020.102443 | - |
Fonte completa do material: dc.identifier | http://hdl.handle.net/11449/206925 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/11449/206925 | - |
Descrição: dc.description | Graph Convolutional Networks (GCNs) have been established as a fundamental approach for representation learning on graphs, based on convolution operations on non-Euclidean domain, defined by graph-structured data. GCNs and variants have achieved state-of-the-art results on classification tasks, especially in semi-supervised learning scenarios. A central challenge in semi-supervised classification consists in how to exploit the maximum of useful information encoded in the unlabeled data. In this paper, we address this issue through a novel self-training approach for improving the accuracy of GCNs on semi-supervised classification tasks. A margin score is used through a rank-based model to identify the most confident sample predictions. Such predictions are exploited as an expanded labeled set in a second-stage training step. Our model is suitable for different GCN models. Moreover, we also propose a rank aggregation of labeled sets obtained by different GCN models. The experimental evaluation considers four GCN variations and traditional benchmarks extensively used in the literature. Significant accuracy gains were achieved for all evaluated models, reaching results comparable or superior to the state-of-the-art. The best results were achieved for rank aggregation self-training on combinations of the four GCN models. | - |
Descrição: dc.description | Microsoft Research | - |
Descrição: dc.description | Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) | - |
Descrição: dc.description | Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) | - |
Descrição: dc.description | National Science Foundation | - |
Descrição: dc.description | Department of Statistics Applied Mathematics and Computing (DEMAC) São Paulo State University (UNESP) | - |
Descrição: dc.description | Department of Computer and Information Sciences Temple University | - |
Descrição: dc.description | Department of Statistics Applied Mathematics and Computing (DEMAC) São Paulo State University (UNESP) | - |
Descrição: dc.description | FAPESP: #2017/25908-6 | - |
Descrição: dc.description | FAPESP: #2018/15597-6 | - |
Descrição: dc.description | CNPq: #308194/2017-9 | - |
Descrição: dc.description | National Science Foundation: IIS-1814745 | - |
Idioma: dc.language | en | - |
Relação: dc.relation | Information Processing and Management | - |
???dc.source???: dc.source | Scopus | - |
Palavras-chave: dc.subject | Graph convolutional networks | - |
Palavras-chave: dc.subject | Rank model | - |
Palavras-chave: dc.subject | Self-training | - |
Palavras-chave: dc.subject | Semi-supervised learning | - |
Título: dc.title | Rank-based self-training for graph convolutional networks | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositório Institucional - Unesp |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: