
Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
| Metadados | Descrição | Idioma |
|---|---|---|
| Autor(es): dc.contributor | Pedronette, Daniel Carlos Guimarães | - |
| Autor(es): dc.creator | Antonio, André Lara Temple de | - |
| Data de aceite: dc.date.accessioned | 2025-08-21T20:38:19Z | - |
| Data de disponibilização: dc.date.available | 2025-08-21T20:38:19Z | - |
| Data de envio: dc.date.issued | 2023-10-25 | - |
| Data de envio: dc.date.issued | 2023-10-25 | - |
| Data de envio: dc.date.issued | 2023-09-06 | - |
| Fonte completa do material: dc.identifier | https://hdl.handle.net/11449/251122 | - |
| Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/11449/251122 | - |
| Descrição: dc.description | A evolução das tecnologias de aquisição e armazenamento de imagens tem sido fundamental em diversas áreas médicas, auxiliando na obtenção de diagnósticos mais precisos e, consequentemente, recomendarem tratamentos mais eficazes para seus pacientes. Recentemente, as técnicas de aprendizagem profunda têm desempenhado um papel fundamental na análise mais precisa de imagens médicas, principalmente devido à capacidade de representar efetivamente o conteúdo visual da imagem. No entanto, apesar dos enormes avanços, as técnicas de aprendizado profundo geralmente requerem grandes quantidades de dados para treinamento, que não estão disponíveis em muitos cenários, especialmente no domínio médico, além de não deixar transparente como o modelo chegou ao resultado. Por outro lado, várias técnicas de aprendizado de variedades foram aplicadas com sucesso em cenários não supervisionados e semi-supervisionados para codificação mais eficaz de relações de similaridade entre dados multimídia na ausência ou restrição de dados rotulados. Neste trabalho, propomos explorar conjuntamente o poder de representação de estratégias de aprendizado profundo com a capacidade de aprendizado não supervisionado de variedades na entrega de medidas de similaridade mais eficazes. Redes neurais convolucionais (CNNs) e modelos baseados em Transformers treinados por transfer learning são combinados por vários métodos de aprendizado não supervisionados, que definem uma similaridade mais efetiva entre as imagens. A saída pode ser usada para recuperação não supervisionada e classificação semi-supervisionada com base em uma estratégia kNN. Uma avaliação experimental foi realizada em diferentes conjuntos de dados de imagens de tumores cerebrais de ressonância magnética, considerando diferentes características. Resultados efetivos foram obtidos em tarefas de recuperação e classificação, com ganhos significativos obtidos por várias abordagens de aprendizado. Em cenários com dados de treinamento limitados, nossa abordagem alcança resultados competitivos ou superiores às abordagens de aprendizado profundo do estado-da-arte. | - |
| Descrição: dc.description | The evolution of image acquisition and storage technologies has been fundamental in numerous medical fields, supporting doctors to deliver more precise diagnoses and, consequently, recommend more effective treatments for their patients. Recently, deep learning techniques have played a key role in more accurate medical image analysis, mainly due to the capacity to effectively represent the image visual content. However, in spite of tremendous advances, deep-learning techniques commonly require huge quantities of data for training, that are not available in many scenarios, especially in the medical domain. Conversely, manifold learning techniques have been successfully applied in unsupervised and semi-supervised scenarios for more effective encoding of similarity relationships between multimedia data in the absence or restriction of labeled data. In this work, we propose to exploit jointly the representation power of deep-learning strategies with the ability of unsupervised manifold learning in delivering more effective similarity measurement. Convolutional Neural Networks (CNNs) and Transformer-based models trained through transfer learning are combined by unsupervised manifold learning methods, which define a more effective similarity among images. The output can be used for unsupervised retrieval and semi-supervised classification based on a kNN strategy. An experimental evaluation was conducted on different datasets of MRI brain tumor images, considering different features. Effective results were obtained on both retrieval and classification tasks, with significant gains obtained by manifold learning approaches. In scenarios with limited training data, our approach achieves results that are competitive or superior to state-of-the-art deep learning approaches. | - |
| Descrição: dc.description | Não recebi financiamento | - |
| Formato: dc.format | application/pdf | - |
| Idioma: dc.language | pt_BR | - |
| Publicador: dc.publisher | Universidade Estadual Paulista (UNESP) | - |
| Direitos: dc.rights | info:eu-repo/semantics/openAccess | - |
| Palavras-chave: dc.subject | Aprendizado não supervisionado | - |
| Palavras-chave: dc.subject | Classificação | - |
| Palavras-chave: dc.subject | Classificação kNN | - |
| Palavras-chave: dc.subject | Fusão | - |
| Palavras-chave: dc.subject | Extração de características | - |
| Palavras-chave: dc.subject | Tumor cerebral | - |
| Palavras-chave: dc.subject | Imagens médicas | - |
| Palavras-chave: dc.subject | Ressonância magnética | - |
| Palavras-chave: dc.subject | Unsupervised learning | - |
| Palavras-chave: dc.subject | Ranking | - |
| Palavras-chave: dc.subject | Knn classification | - |
| Palavras-chave: dc.subject | Fusion | - |
| Palavras-chave: dc.subject | Feature extraction | - |
| Palavras-chave: dc.subject | Brain tumor | - |
| Palavras-chave: dc.subject | Medical images | - |
| Palavras-chave: dc.subject | MRI | - |
| Título: dc.title | Combinação de características para recuperação e classificação de imagens médicas | - |
| Título: dc.title | Features combination for recovery and medical image classification | - |
| Tipo de arquivo: dc.type | livro digital | - |
| Aparece nas coleções: | Repositório Institucional - Unesp | |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: