Atenção: Todas as denúncias são sigilosas e sua identidade será preservada.
Os campos nome e e-mail são de preenchimento opcional
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Saito, Priscila Tiemi Maeda | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/6652293216938994 | - |
Autor(es): dc.contributor | Oliveira, Claiton de | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/8851289265109891 | - |
Autor(es): dc.contributor | Saito, Priscila Tiemi Maeda | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/6652293216938994 | - |
Autor(es): dc.contributor | Lopes, Fabrício Martins | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/1660070580824436 | - |
Autor(es): dc.contributor | Papa, João Paulo | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/9039182932747194 | - |
Autor(es): dc.creator | Alves, Daniel Henrique Acorsi | - |
Data de aceite: dc.date.accessioned | 2022-02-21T21:24:12Z | - |
Data de disponibilização: dc.date.available | 2022-02-21T21:24:12Z | - |
Data de envio: dc.date.issued | 2020-09-07 | - |
Data de envio: dc.date.issued | 2020-09-07 | - |
Data de envio: dc.date.issued | 2019-07-09 | - |
Fonte completa do material: dc.identifier | http://repositorio.utfpr.edu.br/jspui/handle/1/5168 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/capes/651854 | - |
Descrição: dc.description | Significant advances in the computer vision area have been boosted mainly by the use of deep learning techniques through convolutional neural networks. However, one of the main difficulties in using deep learning techniques is the availability of labeled data, which is indispensable when dealing with supervised learning for the task of classification. Other problems to be considered refer to: i-) scarcity of images, for example, images, given the difficulty of acquiring them in some applications; ii-) difficulty in obtaining images labeled by specialists. Thus, it becomes fundamental to develop mechanisms to obtain a larger set of images, as well as that they are labeled. Some applications may even present a reasonable amount or even large amounts of available images, as well as some efforts have been made in attempting to solve the mentioned problems. However, many of the image set samples may not be representative for learning, according to the application domain, and many of the samples considered in the learning can be redundant and unnecessary, negatively impacting the classifier performance. In addition, when dealing with a large set of data and applications that require interactive response times, the classification process may become inefficient and unfeasible to perform. Therefore, the present study presents the proposal for a new learning approach in order to obtain images synthesizers and more robust classifiers. In order to do so, it integrates active learning strategies in the synthesis processes (through the use of Generative Adversarial Networks) and images classification, generating and selecting informative synthetic images for classifier learning. In addition, it investigates and proposes new active learning strategies in order to select more informative samples (based on diversity and uncertainty criteria). To validate the proposed learning approach, experiments were performed using enteroparasites data. The results show that the inclusion of active learning strategies in different stages of the proposed approach is promising. Active learning strategies make it possible to select more informative samples for both image synthesis and classification processes. | - |
Descrição: dc.description | Conselho Nacional do Desenvolvimento Científico e Tecnológico (CNPq) | - |
Descrição: dc.description | Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) | - |
Descrição: dc.description | Fundação Araucária de Apoio ao Desenvolvimento Científico e Tecnológico do Paraná | - |
Descrição: dc.description | Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) | - |
Descrição: dc.description | Secretaria da Ciência, Tecnologia e Ensino Superior (SETI) | - |
Descrição: dc.description | Universidade Tecnológica Federal do Paraná (UTFPR) | - |
Descrição: dc.description | Avanços significativos na área de visão computacional têm sido impulsionados principalmente pelo uso de técnicas de aprendizado profundo por meio das redes neurais convolucionais. No entanto, uma das principais dificuldades na utilização de técnicas de aprendizado profundo é a disponibilidade de dados rotulados, indispensáveis quando se lida com aprendizado supervisionado para a tarefa de classificação. Outros problemas a serem considerados referem-se à: i-) escassez de dados, por exemplo, de imagens, dada a dificuldade de aquisição das mesmas em algumas aplicações; ii-) dificuldade de obtenção de imagens rotuladas por especialistas. Dessa forma, torna-se fundamental o desenvolvimento de mecanismos para obtenção de um conjunto maior de imagens, bem como seus respectivos rótulos. Algumas aplicações podem até apresentar uma quantidade razoável ou até mesmo grandes quantidades de imagens disponíveis, bem como alguns esforços têm sido realizados na tentativa de solucionar os problemas mencionados. No entanto, muitas das amostras do conjunto de imagens podem não ser representativas para o aprendizado, de acordo com o domínio de aplicação, bem como muitas das amostras consideradas no aprendizado podem ser redundantes e desnecessárias, impactando negativamente no desempenho do classificador. Além disso, quando se lida com um grande conjunto de dados e aplicações que exigem tempos de resposta interativos, o processo de classificação pode tornar-se ineficiente e inviável de ser realizado. Portanto, o presente trabalho apresenta a proposta de uma nova abordagem de aprendizado, de forma a obter sintetizadores de imagens e classificadores de padrões mais robustos. Para tanto, integra estratégias de aprendizado ativo nos processos de síntese (por meio do uso de Generative Adversarial Networks) e de classificação de imagens, gerando e selecionando imagens sintéticas informativas para o aprendizado do classificador. Além disso, investiga e propõe novas estratégias de aprendizado ativo, de forma a selecionar amostras mais informativas (baseadas em critérios de diversidade e incerteza). Para validação da abordagem de aprendizado proposta, experimentos foram realizados utilizando dados de enteroparasitos. Os resultados obtidos demonstram que a inclusão de estratégias de aprendizado ativo em diferentes etapas da abordagem proposta mostra-se promissora. As estratégias de aprendizado ativo possibilitam a seleção de amostras mais informativas para ambos os processos de síntese e de classificação das imagens. | - |
Formato: dc.format | application/pdf | - |
Idioma: dc.language | pt_BR | - |
Publicador: dc.publisher | Universidade Tecnológica Federal do Paraná | - |
Publicador: dc.publisher | Cornelio Procopio | - |
Publicador: dc.publisher | Brasil | - |
Publicador: dc.publisher | Programa de Pós-Graduação em Informática | - |
Publicador: dc.publisher | UTFPR | - |
Direitos: dc.rights | openAccess | - |
Palavras-chave: dc.subject | Aprendizagem ativa | - |
Palavras-chave: dc.subject | Processamento de imagens | - |
Palavras-chave: dc.subject | Helminto | - |
Palavras-chave: dc.subject | Active learning | - |
Palavras-chave: dc.subject | Image processing | - |
Palavras-chave: dc.subject | Helminths | - |
Palavras-chave: dc.subject | CNPQ::CIENCIAS EXATAS E DA TERRA | - |
Palavras-chave: dc.subject | Ciência da Computação | - |
Título: dc.title | Abordagens de aprendizado ativo e profundo para síntese e classificação de imagens de enteroparasitos | - |
Título: dc.title | Active and deep learning approaches to synthesis and classification of enteroparasites images | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositorio Institucional da UTFPR - RIUT |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: