Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Gomes Junior, Luiz Celso | - |
Autor(es): dc.contributor | https://orcid.org/0000-0002-1534-9032 | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/0370301102971417 | - |
Autor(es): dc.contributor | Minetto, Rodrigo | - |
Autor(es): dc.contributor | https://orcid.org/0000-0003-2277-4632 | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/8366112479020867 | - |
Autor(es): dc.contributor | Pedrini, Hélio | - |
Autor(es): dc.contributor | https://orcid.org/0000-0003-0125-630X | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/9600140904712115 | - |
Autor(es): dc.contributor | Gomes Junior, Luiz Celso | - |
Autor(es): dc.contributor | https://orcid.org/0000-0002-1534-9032 | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/0370301102971417 | - |
Autor(es): dc.contributor | Silva, Ricardo Dutra da | - |
Autor(es): dc.contributor | https://orcid.org/0000-0002-8002-8411 | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/8512085741397097 | - |
Autor(es): dc.creator | Vieira Júnior, Haroldo do Rosário | - |
Data de aceite: dc.date.accessioned | 2025-08-29T13:41:46Z | - |
Data de disponibilização: dc.date.available | 2025-08-29T13:41:46Z | - |
Data de envio: dc.date.issued | 2024-10-16 | - |
Data de envio: dc.date.issued | 2024-10-16 | - |
Data de envio: dc.date.issued | 2024-08-27 | - |
Fonte completa do material: dc.identifier | http://repositorio.utfpr.edu.br/jspui/handle/1/35132 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/capes/1117798 | - |
Descrição: dc.description | In the oil industry, seismic data is of fundamental importance as it is used, for example, in reservoir discovery, oil production, and well abandonment stages. Due to this importance, large volumes of seismic data are generated, but it is impractical to manually label these data completely. Considering the quantity of data produced and limited annotation, self-supervised learning emerges as an option to pretrain in-domain models for subsequent application in downstream tasks. To verify the advantage of conducting self-supervised learning in the seismic image domain, a qualitative and quantitative performance comparison of in/off domain models was conducted. Using proprietary data from Petrobras, pretraining was performed using the DINO, DINOv2, and MAE methodologies. The SFM model, trained on public seismic images, was also utilized. DeiT-III, DINOv2, and random initialization were selected as off-domain models. In the qualitative evaluation, the reduced-dimensional representation of the models showed that the in-domain models were better able to separate seismic images from different sources, with the exception of the SFM model. In the quantitative evaluation, various tasks and training data subsets were tested. For seismic facies segmentation, the in-domain model had better performance in transfer learning for all tested data subsets. In fine-tuning, the best results were mostly from seismic models, although the best overall result was off-domain. In the other tasks, the majority of the results were better for in-domain models, except for geobody segmentation. In the conducted experiments, in-domain self-supervised learning proved to be beneficial. However, due to the high computational power required for pretraining, this procedure is restricted to large research groups or corporations. | - |
Descrição: dc.description | Na indústria do petróleo os dados sísmicos são de fundamental importância, pois são usados, por exemplo, nas etapas de descobrimento de reservatórios, produção de petróleo e abandono de poço. Devido a essa importância, grandes volumes de dados sísmicos são gerados, porém é inviável realizar a anotação manual destes dados por completo. Tendo em vista a quantidade de dados produzidos e pouca anotação, o aprendizado autossupervisionado surge como uma opção para pré-treinar modelos in domain para posterior aplicação em downstream tasks. Para verificar se há vantagem em realizar aprendizado autossupervisionado em domínio de imagens sísmicas, foi feita a comparação do desempenho de modelos in/off domain de forma qualitativa e quantitativa. Utilizando dados proprietários da Petrobras, foi realizado pré-treino nas metodologias DINO, DINOv2 e MAE. Também foi utilizado o modelo SFM, treinado em imagens sísmicas públicas. O DeiT-III, o DINOv2 e a inicialização aleatória foram selecionados como modelos off domain. Na avaliação qualitativa, a representação em dimensionalidade reduzida dos modelos mostrou que os modelos in domain conseguiram separar melhor imagens sísmicas de origens distintas, com exceção do modelo SFM. Na avaliação quantitativa, foram testadas várias tarefas e subconjuntos de dados de treino. Para a segmentação de fácies sísmicas, o modelo in domain teve melhor desempenho no transfer learning para todos os subconjuntos de dados testados. No fine-tunning, os melhores resultados majoritariamente são dos modelos sísmicos, porém o melhor resultado geral foi off domain. Nas demais tarefas, majoritariamente os resultados foram melhores para os modelos in domain, com exceção da segmentação de geobody. O aprendizado autossupervisionado in domain mostrou-se benéfico nos experimentos realizados, porém, devido ao grande poder computacional necessário para realizar o pré-treinamento, tal procedimento fica restrito a grandes grupos de pesquisa ou corporações. | - |
Formato: dc.format | application/pdf | - |
Idioma: dc.language | pt_BR | - |
Publicador: dc.publisher | Universidade Tecnológica Federal do Paraná | - |
Publicador: dc.publisher | Curitiba | - |
Publicador: dc.publisher | Brasil | - |
Publicador: dc.publisher | Programa de Pós-Graduação em Computação Aplicada | - |
Publicador: dc.publisher | UTFPR | - |
Direitos: dc.rights | openAccess | - |
Direitos: dc.rights | http://creativecommons.org/licenses/by/4.0/ | - |
Palavras-chave: dc.subject | Aprendizado profundo (Aprendizado do computador) | - |
Palavras-chave: dc.subject | Visão por computador | - |
Palavras-chave: dc.subject | Tomografia sísmica | - |
Palavras-chave: dc.subject | Prospecção - Métodos geofísicos | - |
Palavras-chave: dc.subject | Indústria petrolífera | - |
Palavras-chave: dc.subject | Deep learning (Machine learning) | - |
Palavras-chave: dc.subject | Computer vision | - |
Palavras-chave: dc.subject | Seismic tomography | - |
Palavras-chave: dc.subject | Prospecting - Geophysical methods | - |
Palavras-chave: dc.subject | Petroleum, Industry and trade | - |
Palavras-chave: dc.subject | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO | - |
Palavras-chave: dc.subject | Ciência da Computação | - |
Título: dc.title | Aprendizado autossupervisionado aplicado a imagens sísmicas: análise de desempenho de treinamento in/off domain | - |
Título: dc.title | Self-supervised learning applied to seismic images: training performance analysis in/off domain | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositorio Institucional da UTFPR - RIUT |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: