Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Bugatti, Pedro Henrique | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/2177467029991118 | - |
Autor(es): dc.contributor | Saito, Priscila Tiemi Maeda | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/6652293216938994 | - |
Autor(es): dc.contributor | Kashiwabara, Andre Yoshiaki | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/3194328548975437 | - |
Autor(es): dc.contributor | Lopes, Fabricio Martins | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/1660070580824436 | - |
Autor(es): dc.contributor | Silva, Marcelo Ponciano da | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/5460455448058206 | - |
Autor(es): dc.contributor | Bugatti, Pedro Henrique | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/2177467029991118 | - |
Autor(es): dc.contributor | Saito, Priscila Tiemi Maeda | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/6652293216938994 | - |
Autor(es): dc.creator | Silva, William Sdayle Marins | - |
Data de aceite: dc.date.accessioned | 2025-08-29T13:09:58Z | - |
Data de disponibilização: dc.date.available | 2025-08-29T13:09:58Z | - |
Data de envio: dc.date.issued | 2023-08-14 | - |
Data de envio: dc.date.issued | 2023-08-14 | - |
Data de envio: dc.date.issued | 2023-03-15 | - |
Fonte completa do material: dc.identifier | http://repositorio.utfpr.edu.br/jspui/handle/1/32061 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/capes/1108471 | - |
Descrição: dc.description | Humans can manage to assimilate the context between information from little perceived data, and this statement applies to the context in images. In machine learning, an image’s context can be represented and predicted using Graph Convolutional Networks (GCNs). In this context, graph convolutional networks need the graph structure to apply the convolutional method between nodes. Based on previous work, fully connected and threshold weights are edge policies that can be used to create image context graphs. However, the connection policies between objects generally used in the creation of convolutional graphs may not be the best in terms of classification or number of edges, which may confuse the classification models. Aiming to make context graphs more expressive and improve the accuracy of contextual image classifications, this paper proposes an efficient method based in random walks that can get better classification results compared to the literature. To increase the level of comparison of the proposed method, two other random methods were used; random cut and random edge. Some pre-trained neural network architectures were used to extract features of each object from the images. Different sizes of walks were also tested for the random walk, making the project more comprehensive. Were used different label contexts in four datasets to evaluate the graph edge connection policies. The proposed approach could perform better results in almost all the datasets and having edge sets smaller than the fully connected policy in all datasets. The proposed method could perform 56.20% of precision compared to 50.37% of the fully connected policie and 53.85% of the threshold weights method. | - |
Descrição: dc.description | Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) | - |
Descrição: dc.description | Sabe-se que pessoas conseguem assimilar o contexto entre informações a partir de dados pouco percebidos, e essa afirmação se aplica ao contexto em imagens. No aprendizado de máquina, o contexto de uma imagem pode ser representado e previsto usando Graph Convolutional Networks (GCNs). Nesse contexto, as redes convolucionais em grafos precisam da estrutura do grafo para aplicar o método convolucional entre os nós. Com base no trabalhos anteriores, grafos convolucionais com politicas de conexão totalmente conectadas e por cortes com base em pesos são políticas que podem ser usadas para criar gráficos de contexto de imagem. No entanto, as políticas de conexão entre objetos geralmente utilizadas na criação de grafos convolucionais podem não ser as melhores em termos de classificação ou número de arestas, o que pode confundir os modelos de classificação. Com o objetivo de tornar os grafos de contexto mais expressivos e melhorar a precisão das classificações de imagens contextuais, este trabalho propõe um método eficiente baseado em passeios aleatórios que podem obter melhores resultados de classificação em comparação com a literatura. Para aumentar o nível de comparação do método proposto, foram utilizados outros dois métodos aleatórios; corte aleatório e arestas aleatórias. Algumas arquiteturas de redes neurais pré-treinadas foram usadas para extrair características de cada objeto das imagens. Diferentes tamanhos de passeios também foram testados para o passeio aleatório, tornando o projeto mais abrangente. Foram utilizados diferentes contextos de rótulos em quatro conjuntos de imagens para avaliar as políticas de conexão de arestas do grafo. A abordagem proposta apresentou melhores resultados em quase todos os conjuntos e conjuntos de arestas menores de que a política totalmente conectada em todos os datasets. O método proposto performou 56,20% de precisão em comparação com 50,37% da política totalmente conectada e 53,85% do método por cortes com base em pesos. | - |
Formato: dc.format | application/pdf | - |
Idioma: dc.language | pt_BR | - |
Publicador: dc.publisher | Universidade Tecnológica Federal do Paraná | - |
Publicador: dc.publisher | Cornelio Procopio | - |
Publicador: dc.publisher | Brasil | - |
Publicador: dc.publisher | Programa de Pós-Graduação em Bioinformática | - |
Publicador: dc.publisher | UTFPR | - |
Direitos: dc.rights | openAccess | - |
Palavras-chave: dc.subject | Redes neurais (Computação) | - |
Palavras-chave: dc.subject | Imagens como recursos de informação | - |
Palavras-chave: dc.subject | Bioinformática | - |
Palavras-chave: dc.subject | Neural networks (Computer science) | - |
Palavras-chave: dc.subject | Pictures as information resources | - |
Palavras-chave: dc.subject | Bioinformatics | - |
Palavras-chave: dc.subject | CNPQ::ENGENHARIAS | - |
Palavras-chave: dc.subject | Engenharia/Tecnologia/Gestão | - |
Título: dc.title | Melhorias na classificação de imagens contextuais através de grafos convolucionais e caminhada aleatória | - |
Título: dc.title | Improvements in contextual image classification through graph convolutional networks and random walks | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositorio Institucional da UTFPR - RIUT |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: