Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Universidade Estadual Paulista (UNESP) | - |
Autor(es): dc.contributor | The University of Manchester | - |
Autor(es): dc.creator | Roder, Mateus | - |
Autor(es): dc.creator | Gomes, Nicolas | - |
Autor(es): dc.creator | Yoshida, Arissa | - |
Autor(es): dc.creator | Papa, Joao Paulo | - |
Autor(es): dc.creator | Costen, Fumie | - |
Data de aceite: dc.date.accessioned | 2025-08-21T19:36:29Z | - |
Data de disponibilização: dc.date.available | 2025-08-21T19:36:29Z | - |
Data de envio: dc.date.issued | 2025-04-29 | - |
Data de envio: dc.date.issued | 2022-12-31 | - |
Fonte completa do material: dc.identifier | http://dx.doi.org/10.1109/SIBGRAPI59091.2023.10347165 | - |
Fonte completa do material: dc.identifier | https://hdl.handle.net/11449/307520 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/11449/307520 | - |
Descrição: dc.description | Several studies have investigated the vast potential of deep learning techniques in addressing a wide range of applications, from recommendation systems and service-based analysis to medical diagnosis. However, even with the remarkable results achieved in some computer vision tasks, there is still a vast scope for exploration. Over the past decade, various studies focused on developing automated medical systems to support diagnosis. Nevertheless, detecting cerebrovascular accidents remains a challenging task. In this regard, one way to improve these approaches is to incorporate information fusion techniques in deep learning architectures. This paper proposes a novel approach to enhance stroke classification by combining multimodal data from Fourier transform with Convolutional Deep Belief Networks. As the main result, the proposed approach achieved state-of-the-art results with an accuracy of 99.94%, demonstrating its effectiveness and potential for future applications. | - |
Descrição: dc.description | São Paulo State University (UNESP) Computing Department | - |
Descrição: dc.description | School of Electrical and Electronic Engineering The University of Manchester | - |
Descrição: dc.description | São Paulo State University (UNESP) Computing Department | - |
Formato: dc.format | 163-168 | - |
Idioma: dc.language | en | - |
Relação: dc.relation | Brazilian Symposium of Computer Graphic and Image Processing | - |
???dc.source???: dc.source | Scopus | - |
Título: dc.title | Multimodal Convolutional Deep Belief Networks for Stroke Classification with Fourier Transform | - |
Tipo de arquivo: dc.type | aula digital | - |
Aparece nas coleções: | Repositório Institucional - Unesp |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: