
Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
| Metadados | Descrição | Idioma |
|---|---|---|
| Autor(es): dc.contributor | Paula Filho, Pedro Luiz de | - |
| Autor(es): dc.contributor | Aikes Junior, Jorge | - |
| Autor(es): dc.contributor | Paula Filho, Pedro Luiz de | - |
| Autor(es): dc.contributor | Pessini, Evando Carlos | - |
| Autor(es): dc.contributor | Franco, Ricardo Augusto Pereira | - |
| Autor(es): dc.creator | Araujo Junior, Sandro Luis de | - |
| Data de aceite: dc.date.accessioned | 2025-08-29T13:08:15Z | - |
| Data de disponibilização: dc.date.available | 2025-08-29T13:08:15Z | - |
| Data de envio: dc.date.issued | 2024-09-02 | - |
| Data de envio: dc.date.issued | 2024-09-02 | - |
| Data de envio: dc.date.issued | 2023-11-20 | - |
| Fonte completa do material: dc.identifier | http://repositorio.utfpr.edu.br/jspui/handle/1/34636 | - |
| Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/capes/1107988 | - |
| Descrição: dc.description | Cancer is one of the main causes of death in the world, and one of the most diagnosed and lethal is colorectal cancer. Most cases of colorectal cancer originate from polyps, which are disordered cellular growths of the intestinal mucosa. Therefore, one of the ways to prevent colorectal cancer is the identification and removal of polyps through colonoscopy exams. However, a significant portion of polyps may be unnoticed by specialist doctors when analyzing images of this examination, reaching 27% of polyps less than 5 mm. In this way, computer vision algorithms can help these professionals in the identification and delimitation of polyps, especially algorithms that are based on deep learning. Deep learning algorithms learn from a large set of data to recognize valid patterns, in this case, patterns that characterize a polyp in a particular area of an image. Two of the main computer vision tasks that do use of deep learning techniques are object detection and segmentation. The first task delimits the objects of interest using a box, and the second one surrounds precisely each of the objects. In this sense, the objective of this work was to identify labeled public colonoscopy image bases, and to train detection and segmentation algorithms. Two algorithms were used, being YOLOv8 as a detector and segmenter, and SAM as a segmenter. The two algorithms had their performance evaluated separately and together, so that YOLOv8 outputs were used to identify the area to be segmented by SAM. Among the different variants of YOLOv8, the one that presented the best results for the detection task was nano, reaching 0.969 of mAP50 and 0.796 of mAP50-95. In the case of the segmentation task, the best results were reached by YOLOv8 alone (without using SAM) in its large version, reached up to 0.895 for the dice coefficient, and 0.850 of IoU. Although no improvements were observed in the segmentation task combining YOLOv8 and SAM, good results were achieved when the original annotation of the images were used as input, reaching 0.942 of dice and 0.896 of IoU, thus demonstrating the algorithm’s capacity to segment polyps as long as their precise location is provided. | - |
| Descrição: dc.description | O câncer é uma das principais causas de morte no mundo, sendo que um dos tipos mais diagnosticado e letal é o câncer colorretal. A maioria dos casos de câncer colorretal originam-se a partir de pólipos, que são crescimentos celulares desordenados da mucosa intestinal. Uma das formas de prevenção do câncer colorretal é a identificação e remoção dos pólipos através de exames de colonoscopia. Contudo, uma parcela significativa dos pólipos pode passar despercebida por médicos especialistas ao fazerem a análise de imagens deste exame, chegando a 27% dos pólipos com menos de 5 mm. Dessa forma, algoritmos de visão computacional podem auxiliar esses profissionais na identificação e delimitação dos pólipos, em especial algoritmos que são baseados em aprendizado profundo. Os algoritmos de aprendizado profundo aprendem a partir de um amplo conjunto de dados a reconhecer padrões válidos, nesse caso, padrões que determinam o que caracteriza uma área de uma imagem como um pólipo. Duas das principais tarefas de visão computacional que fazem uso de técnicas de aprendizado profundo são a detecção de objetos e a segmentação, sendo que a primeira delimita os objetos de interesse utilizando uma caixa, e a segunda circunda precisamente cada um dos objetos. Neste sentido, o presente trabalho teve como objetivo a identificação de bases de imagens públicas de colonoscopia rotuladas, e o treinamento de algoritmos de detecção e segmentação. Dois algoritmos foram utilizados, sendo eles o YOLOv8 como detector e segmentador, e o SAM como segmentador. Os dois algoritmos tiveram seu desempenho avaliado separadamente e em conjunto, de forma que as saídas do YOLOv8 foram utilizadas como identificação da área a ser segmentada pelo SAM. Dentre as diversas variantes do YOLOv8, a que apresentou melhores resultados para detecção foi a nano chegando à 0,969 de mAP50 e 0,796 de mAP50-95. No caso da segmentação, os melhores resultados foram atingidos pelo YOLOv8 sozinho (sem utilizar o SAM) em sua versão large, alcançado até 0,895 para o coeficiente dice e 0,850 de IoU. Apesar de não terem sido observadas melhorias na segmentação ao se utilizar as saídas do YOLOv8 como entrada para o SAM, bons resultados foram alcançados quando a anotação original das imagens foi utilizada como entrada, chegando à 0,942 de dice e 0,896 de IoU, evidenciando assim a capacidade do algoritmo em segmentar os pólipos desde que a sua localização precisa seja fornecida. | - |
| Formato: dc.format | application/pdf | - |
| Idioma: dc.language | pt_BR | - |
| Publicador: dc.publisher | Universidade Tecnológica Federal do Paraná | - |
| Publicador: dc.publisher | Medianeira | - |
| Publicador: dc.publisher | Brasil | - |
| Publicador: dc.publisher | Ciência da Computação | - |
| Publicador: dc.publisher | UTFPR | - |
| Direitos: dc.rights | openAccess | - |
| Direitos: dc.rights | http://creativecommons.org/licenses/by/4.0/ | - |
| Palavras-chave: dc.subject | Visão por computador | - |
| Palavras-chave: dc.subject | Algorítmos computacionais | - |
| Palavras-chave: dc.subject | Processamento de imagens - Técnicas digitais | - |
| Palavras-chave: dc.subject | Computer vision | - |
| Palavras-chave: dc.subject | Computer algorithms | - |
| Palavras-chave: dc.subject | Image processing - Digital techniques | - |
| Palavras-chave: dc.subject | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO | - |
| Título: dc.title | Identificação de pólipos através de técnicas de segmentação de imagens | - |
| Título: dc.title | Polyp identification using image segmentation techniques | - |
| Tipo de arquivo: dc.type | livro digital | - |
| Aparece nas coleções: | Repositorio Institucional da UTFPR - RIUT | |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: