
Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
| Metadados | Descrição | Idioma |
|---|---|---|
| Autor(es): dc.contributor | The University of Manchester | - |
| Autor(es): dc.contributor | King's College London | - |
| Autor(es): dc.contributor | Universidade Estadual Paulista (UNESP) | - |
| Autor(es): dc.contributor | Bogazici University | - |
| Autor(es): dc.contributor | King's College Hospital NHS Foundation Trust | - |
| Autor(es): dc.contributor | RIKEN | - |
| Autor(es): dc.creator | Lyu, Qiyuan | - |
| Autor(es): dc.creator | Parreno-Centeno, Mario | - |
| Autor(es): dc.creator | Papa, João Paulo | - |
| Autor(es): dc.creator | Öztürk-Isik, Esin | - |
| Autor(es): dc.creator | Booth, Thomas C. | - |
| Autor(es): dc.creator | Costen, Fumie | - |
| Data de aceite: dc.date.accessioned | 2025-08-21T20:53:22Z | - |
| Data de disponibilização: dc.date.available | 2025-08-21T20:53:22Z | - |
| Data de envio: dc.date.issued | 2025-04-29 | - |
| Data de envio: dc.date.issued | 2024-06-30 | - |
| Fonte completa do material: dc.identifier | http://dx.doi.org/10.1016/j.heliyon.2024.e32870 | - |
| Fonte completa do material: dc.identifier | https://hdl.handle.net/11449/297282 | - |
| Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/11449/297282 | - |
| Descrição: dc.description | Background and objective: Malignant primary brain tumors cause the greatest number of years of life lost than any other cancer. Grade 4 glioma is particularly devastating: The median survival without any treatment is less than six months and with standard-of-care treatment is only 14.6 months. Accurate identification of the overall survival time of patients with brain tumors is of profound importance in many clinical applications. Automated image analytics with magnetic resonance imaging (MRI) can provide insights into the prognosis of patients with brain tumors. Methods: In this paper, We propose SurvNet, a low-complexity deep learning architecture based on the convolutional neural network to classify the overall survival time of patients with brain tumors into long-time and short-time survival cohorts. Through the incorporation of diverse MRI modalities as inputs, we facilitate deep feature extraction at various anatomical sites, thereby augmenting the precision of predictive modeling. We compare SurvNet with the Inception V3, VGG 16 and ensemble CNN models on pre-operative magnetic resonance image datasets. We also analyzed the effect of segmented brain tumors and training data on the system performance. Results: Several measures, such as accuracy, precision, and recall, are calculated to examine the perfor-mance of SurvNet on three-fold cross-validation. SurvNet with T1 MRI modality achieved a 62.7 % accuracy, compared with 52.9 % accuracy of the Inception V3 model, 58.5 % accuracy of the VGG 16 model, and 54.9 % of the ensemble CNN model. By increasing the MRI input modalities, SurvNet becomes more accurate and achieves 76.5 % accuracy with four MRI modalities. Combining the segmented data, SurvNet achieved the highest accuracy of 82.4 %. Conclusions: The research results show that SurvNet achieves higher metrics such as accuracy and f1-score than the comparisons. Our research also proves that by using multiparametric MRI modalities, SurvNet is able to learn more image features and performs a better classification accuracy. We can conclude that SurvNet with the complete scenario, i.e., segmented data and four MRI modalities, achieved the best accuracy, showing the validity of segmentation information during the survival time prediction process. | - |
| Descrição: dc.description | Electrical and Electronic Engineering Department The University of Manchester, Oxford Rd | - |
| Descrição: dc.description | King's College London, Strand | - |
| Descrição: dc.description | School of Sciences São Paulo State University | - |
| Descrição: dc.description | Institute of Biomedical Engineering Bogazici University | - |
| Descrição: dc.description | Biomedical Engineering and Imaging Sciences St. Thomas' Hospital King's College London | - |
| Descrição: dc.description | Department of Neuroradiology King's College Hospital NHS Foundation Trust | - |
| Descrição: dc.description | Image Processing Research Team Centre for Advanced Photonics RIKEN, Saitama | - |
| Descrição: dc.description | School of Sciences São Paulo State University | - |
| Idioma: dc.language | en | - |
| Relação: dc.relation | Heliyon | - |
| ???dc.source???: dc.source | Scopus | - |
| Palavras-chave: dc.subject | Brain tumor glioma glioblastoma | - |
| Palavras-chave: dc.subject | Magnetic resonance imaging convolutional neural network | - |
| Palavras-chave: dc.subject | Overall survival classification deep learning | - |
| Título: dc.title | SurvNet: A low-complexity convolutional neural network for survival time classification of patients with glioblastoma | - |
| Tipo de arquivo: dc.type | livro digital | - |
| Aparece nas coleções: | Repositório Institucional - Unesp | |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: