Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Federal University of Technology - Parana (UTFPR) | - |
Autor(es): dc.contributor | Universidade Estadual Paulista (UNESP) | - |
Autor(es): dc.contributor | Universidade de São Paulo (USP) | - |
Autor(es): dc.contributor | Euripides Soares da Rocha University of Marilia | - |
Autor(es): dc.contributor | Universidade Estadual de Campinas (UNICAMP) | - |
Autor(es): dc.creator | da Cruz, Murilo Horacio Pereira | - |
Autor(es): dc.creator | Domingues, Douglas Silva [UNESP] | - |
Autor(es): dc.creator | Saito, Priscila Tiemi Maeda | - |
Autor(es): dc.creator | Paschoal, Alexandre Rossi | - |
Autor(es): dc.creator | Bugatti, Pedro Henrique | - |
Data de aceite: dc.date.accessioned | 2022-08-04T22:09:41Z | - |
Data de disponibilização: dc.date.available | 2022-08-04T22:09:41Z | - |
Data de envio: dc.date.issued | 2022-04-28 | - |
Data de envio: dc.date.issued | 2022-04-28 | - |
Data de envio: dc.date.issued | 2021-05-20 | - |
Fonte completa do material: dc.identifier | http://dx.doi.org/10.1093/bib/bbaa185 | - |
Fonte completa do material: dc.identifier | http://hdl.handle.net/11449/221755 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/11449/221755 | - |
Descrição: dc.description | Transposable elements (TEs) are the most represented sequences occurring in eukaryotic genomes. Few methods provide the classification of these sequences into deeper levels, such as superfamily level, which could provide useful and detailed information about these sequences. Most methods that classify TE sequences use handcrafted features such as k-mers and homology-based search, which could be inefficient for classifying non-homologous sequences. Here we propose an approach, called transposable elements pepresentation learner (TERL), that preprocesses and transforms one-dimensional sequences into two-dimensional space data (i.e., image-like data of the sequences) and apply it to deep convolutional neural networks. This classification method tries to learn the best representation of the input data to classify it correctly. We have conducted six experiments to test the performance of TERL against other methods. Our approach obtained macro mean accuracies and F1-score of 96.4% and 85.8% for superfamilies and 95.7% and 91.5% for the order sequences from RepBase, respectively. We have also obtained macro mean accuracies and F1-score of 95.0% and 70.6% for sequences from seven databases into superfamily level and 89.3% and 73.9% for the order level, respectively. We surpassed accuracy, recall and specificity obtained by other methods on the experiment with the classification of order level sequences from seven databases and surpassed by far the time elapsed of any other method for all experiments. Therefore, TERL can learn how to predict any hierarchical level of the TEs classification system and is about 20 times and three orders of magnitude faster than TEclass and PASTEC, respectively https://github.com/muriloHoracio/TERL. Contact:murilocruz@alunos.utfpr.edu.br. | - |
Descrição: dc.description | Federal University of Technology - Parana (UTFPR) | - |
Descrição: dc.description | Bioinformatics Graduation Program (PPGBIOINFO) Department of Computer Science Federal University of Technology - Parana (UTFPR) | - |
Descrição: dc.description | São Paulo State University at Botucatu | - |
Descrição: dc.description | University of São Paulo | - |
Descrição: dc.description | Department of Biodiversity São Paulo State University at Rio Claro | - |
Descrição: dc.description | Euripides Soares da Rocha University of Marilia | - |
Descrição: dc.description | University of São Paulo (ICMC-USP) | - |
Descrição: dc.description | University of Campinas (IC-UNICAMP) | - |
Descrição: dc.description | Department of Computing Federal University of Technology - Parana (UTFPR) | - |
Descrição: dc.description | São Paulo State University at Botucatu | - |
Descrição: dc.description | Department of Biodiversity São Paulo State University at Rio Claro | - |
Idioma: dc.language | en | - |
Relação: dc.relation | Briefings in bioinformatics | - |
???dc.source???: dc.source | Scopus | - |
Palavras-chave: dc.subject | convolutional neural networks | - |
Palavras-chave: dc.subject | deep learning | - |
Palavras-chave: dc.subject | representation learning | - |
Palavras-chave: dc.subject | sequence classification | - |
Palavras-chave: dc.subject | transposable elements | - |
Título: dc.title | TERL: classification of transposable elements by convolutional neural networks | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositório Institucional - Unesp |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: