Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Sementille, Antonio Carlos | - |
Autor(es): dc.contributor | Universidade Estadual Paulista (UNESP) | - |
Autor(es): dc.creator | Stahl, Gustavo Henrique | - |
Data de aceite: dc.date.accessioned | 2025-08-21T18:40:31Z | - |
Data de disponibilização: dc.date.available | 2025-08-21T18:40:31Z | - |
Data de envio: dc.date.issued | 2023-01-29 | - |
Data de envio: dc.date.issued | 2023-01-29 | - |
Data de envio: dc.date.issued | 2023-01-18 | - |
Fonte completa do material: dc.identifier | http://hdl.handle.net/11449/239092 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/11449/239092 | - |
Descrição: dc.description | Consoante com o desenvolvimento tecnológico atual que, cada vez mais, solicita abordagens que conectem o meio analógico e digital de maneira interativa, ou seja, funcionando em tempo real, o presente trabalho busca auxiliar nesse cenário ao acelerar uma das técnicas de extração de pontos de interesse em imagem presente no estado da arte da categoria, uma vez que são densamente utilizadas em áreas como realidade aumentada, veículos autônomos, robôs de serviço, reconstrução 3D, e diversas outras que necessitam produzir resultados rápidos e frequentes. O método escolhido para o aperfeiçoamento é o extrator de cantos FOAGDD (First-order Anisotropic Gaussian Direction Derivative) e seu processo de otimização se sustentou na massiva paralelização possibilitada pela arquitetura CUDA (Compute Unified Device Architecture) da NVIDIA. Os resultados obtidos com a melhoria proposta se mostraram promissores. Primeiramente, a saída produzida pela implementação original do método e a paralelizada em CUDA se mostraram muito similares, após serem testadas e comparadas em um conjunto de 28 imagens. Por último, o código proposto trouxe um Speed-up no tempo de execução de aproximadamente 3190 (66,03 segundos → 20,70 milisegundos) em relação à implementação original do FOAGDD, utilizando como base uma imagem padronizada de resolução 512 × 512 pixels. | - |
Descrição: dc.description | Cooperating with the current technological development that, more and more, requires approaches that connect the analog and digital medium in an interactive manner, that is, operating in real-time, the current work attempts to assist in this scenario by accelerating one of the interest point extraction techniques present in the state of the art of the category, since they are densely used in areas such as augmented reality, autonomous vehicles, service robots, 3D reconstructions, and several others that need to produce quick and frequent results. The method chosen for the improvement is the corner extractor FOAGDD (First-order Anisotropic Gaussian Direction Derivative), and its optimization process relied on the massive parallelization made possible by NVIDIA’s CUDA (Compute Unified Device Architecture) architecture. The results obtained with the proposed modifications have shown to be promising. First, the output produced by the original implementation of the method and the one parallelized in CUDA turned out to be very similar after being tested and compared in a set of 28 images. Finally, the proposed code brought a speedup in the runtime of approximately 3190 (66,03 seconds → 20,70 milliseconds) over the original implementation of FOAGDD, using as base a standardized image with a resolution of 512 × 512 pixels. | - |
Formato: dc.format | application/pdf | - |
Idioma: dc.language | pt_BR | - |
Publicador: dc.publisher | Universidade Estadual Paulista (UNESP) | - |
Direitos: dc.rights | info:eu-repo/semantics/openAccess | - |
Palavras-chave: dc.subject | Computação de alto desempenho | - |
Palavras-chave: dc.subject | NVIDIA CUDA | - |
Palavras-chave: dc.subject | Extrator de pontos de interesse | - |
Palavras-chave: dc.subject | Visão computacional | - |
Palavras-chave: dc.subject | High performance computing | - |
Palavras-chave: dc.subject | Interest point detection | - |
Título: dc.title | Paralelização da técnica de extração de pontos de interesse FOAGDD utilizando a arquitetura CUDA | - |
Título: dc.title | Parallelization of the FOAGDD point of interest extraction technique using the CUDA architecture | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositório Institucional - Unesp |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: