Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Andrade, Mauren Louise Sguario Coelho de | - |
Autor(es): dc.contributor | Andrade, Mauren Louise Sguario Coelho de | - |
Autor(es): dc.contributor | Iliuk, Itamar | - |
Autor(es): dc.contributor | Aires, Simone Bello Kaminski | - |
Autor(es): dc.creator | Ribeiro, Vinícius Cerqueira | - |
Data de aceite: dc.date.accessioned | 2025-08-29T12:27:14Z | - |
Data de disponibilização: dc.date.available | 2025-08-29T12:27:14Z | - |
Data de envio: dc.date.issued | 2025-07-02 | - |
Data de envio: dc.date.issued | 2025-07-02 | - |
Data de envio: dc.date.issued | 2025-02-04 | - |
Fonte completa do material: dc.identifier | http://repositorio.utfpr.edu.br/jspui/handle/1/37321 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/capes/1095621 | - |
Descrição: dc.description | One of the main challenges in developing artificial intelligence models based on deep neural networks is obtaining high-quality data for training datasets. As tasks become more complex, the costs of annotation and the difficulty of acquiring data increase, making the process more time-consuming and expensive. As an alternative, researchers have explored the use of virtual environments to automate the annotation of low-cost, error-free datasets. In this context, this work presents the development of an extensible Python plugin for the open-source software Blender, which uses the graphics engine to generate photorealistic synthetic datasets aimed at computer vision challenges such as segmentation and bounding box detection. In the end, the tool was used to create a dataset with retail product images, with the goal of evaluating the quality of the generated annotations and the impact of synthetic data on training. The Faster R-CNN model with ResNet50 backbone, pre-trained on the COCO dataset, was trained on a set of 10,000 images containing 5 product classes, achieving a mAP@0.5:0.95 of 48,1% on the synthetic validation set and a mAP@0.5:0.95 of 24,8% on the real validation set. | - |
Descrição: dc.description | Uma das principais dificuldades no desenvolvimento de modelos de inteligência artificial baseados em redes neurais profundas é a obtenção de dados de alta qualidade para a criação de conjuntos de treinamento. À medida que as tarefas se tornam mais complexas, os custos de anotação e a dificuldade de obtenção dos dados aumentam, tornando o processo mais demorado e oneroso. Como alternativa, pesquisadores têm explorado o uso de ambientes virtuais para automatizar a anotação de conjuntos de dados de baixo custo e livres de erros. Neste contexto, este trabalho apresenta o desenvolvimento de um plugin extensível em Python para o software open-source Blender, que utiliza o motor gráfico para a geração de conjuntos de dados sintéticos fotorrealistas, voltados para desafios de Visão Computacional, como segmentação e detecção por caixas delimitadoras. Ao final, a ferramenta foi utilizada para criar um conjunto de dados com imagens de produtos de varejo, com o objetivo de avaliar a qualidade das anotações geradas e o impacto dos dados sintéticos no treinamento. O modelo Faster R-CNN com backbone ResNet50, pré-treinado no conjunto COCO, foi treinado no conjunto de 10 mil imagens, contendo 5 classes de produtos, alcançando um mAP@0.5:0.95 de 48,1% no conjunto de validação sintético e mAP@0.5:0.95 24,8% no conjunto real. | - |
Formato: dc.format | application/pdf | - |
Idioma: dc.language | pt_BR | - |
Publicador: dc.publisher | Universidade Tecnológica Federal do Paraná | - |
Publicador: dc.publisher | Ponta Grossa | - |
Publicador: dc.publisher | Brasil | - |
Publicador: dc.publisher | Departamento Acadêmico de Informática | - |
Publicador: dc.publisher | Ciência da Computação | - |
Publicador: dc.publisher | UTFPR | - |
Direitos: dc.rights | openAccess | - |
Direitos: dc.rights | http://creativecommons.org/licenses/by/4.0/ | - |
Palavras-chave: dc.subject | Visão por computador | - |
Palavras-chave: dc.subject | Processamento de imagens | - |
Palavras-chave: dc.subject | Aprendizado do computador | - |
Palavras-chave: dc.subject | Ambientes virtuais compartilhados | - |
Palavras-chave: dc.subject | Computer vision | - |
Palavras-chave: dc.subject | Image processing | - |
Palavras-chave: dc.subject | Machine learning | - |
Palavras-chave: dc.subject | Shared virtual environments | - |
Palavras-chave: dc.subject | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO | - |
Título: dc.title | Desenvolvimento de extensão para geração de conjuntos de dados sintéticos | - |
Título: dc.title | Extension development for generating synthetic datasets | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositorio Institucional da UTFPR - RIUT |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: