Atenção: Todas as denúncias são sigilosas e sua identidade será preservada.
Os campos nome e e-mail são de preenchimento opcional
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Lopes, Fabrício Martins | - |
Autor(es): dc.contributor | http://lattes.cnpq.br/1660070580824436 | - |
Autor(es): dc.contributor | Lopes, Fabrício Martins | - |
Autor(es): dc.contributor | Barbon Júnior, Sylvio | - |
Autor(es): dc.contributor | Saito, Priscila Tiemi Maeda | - |
Autor(es): dc.creator | Piotto, João Gilberto de Souza | - |
Data de aceite: dc.date.accessioned | 2022-02-21T21:46:23Z | - |
Data de disponibilização: dc.date.available | 2022-02-21T21:46:23Z | - |
Data de envio: dc.date.issued | 2017-11-05 | - |
Data de envio: dc.date.issued | 2017-11-05 | - |
Data de envio: dc.date.issued | 2016-12-12 | - |
Fonte completa do material: dc.identifier | http://repositorio.utfpr.edu.br/jspui/handle/1/2568 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/capes/660185 | - |
Descrição: dc.description | The search for biometric scanning methods has grown a lot due to government, military and commercial needs. Researches indicate the face recognition market will move billions of dollars in next years. Thus, finding methods to specific situations drives new advances in this area. Each application face recognition requires a particular solution. There are cases the response time is the most important factor; others require that face must be classified even if partially. In all these situations, accuracy and robustness may be the most important attributes. However, in most cases, these features behave as inverse greatness: increasing the confidence level of the results the method performance will be affected. Therefore, create the method which balances these factors is essential for construction of acceptable solutions. This paper presents a new face recognition algorithm based on local descriptors and complex networks. The method is able to concentrate the information before distributed by various point descriptors, in a unique feature vector. It makes the classification step faster and more efficient. Furthermore, another focus of the method is reduce pre-processing steps, avoiding unnecessary processes. The experiments were conducted with faces datasets well known in the literature, revealing accuracy rates of up to 98.5%. The technique also showed good results when there was noise in the samples, often derived from objects present in the composition of the scene. For additional analysis, classical facial recognition algorithms were subjected to the same data set, generating comparative results between both methodologies. | - |
Descrição: dc.description | A busca por métodos de leitura biométrica tem crescido muito, alimentada pelas necessidades governamentais, militares e comerciais. Pesquisas indicam que o mercado de reconhecimento facial vai movimentar bilhões de dólares nos próximos anos. Dessa forma, encontrar métodos que atendem situações específicas impulsiona novos avanços nessa área. Cada aplicação de reconhecimento de faces precisa de uma solução particular. Há casos que o tempo de resposta é o fator mais importante; outros exigem que a face seja classificada mesmo que de forma parcial. Em todas essas situações, a acurácia e a robustez talvez sejam os atributos mais importantes. Entretanto, na maioria das vezes, tais características se comportam como grandezas inversas: aumentado o grau de confiança dos resultados o desempenho do método será afetado. Por isso, desenvolver uma metodologia que equilibra tais fatores é essencial para a construção de soluções aceitáveis. Este trabalho apresenta um novo algoritmo de reconhecimento facial, baseado em descritores locais e em redes complexas. O método é capaz de concentrar a informação, antes distribuída pelos diversos pontos dos descritores, em um único vetor de características, tornando a classificação mais rápida e eficiente. Além disso, o outro foco da metodologia é reduzir etapas de pré-processamento, evitando que processos sejam executados de forma desnecessária. Os experimentos foram realizados com bancos de faces bem conhecidos na literatura, revelando taxas de acurácia de até 98,5%. A técnica também apresentou bons resultados mesmo quando havia ruídos nas amostras, muitas vezes oriundos de objetos presentes na composição do cenário. Para uma análise complementar, algoritmos clássicos de reconhecimento facial foram submetidos ao mesmo conjunto de dados, gerando assim resultados comparativos entre as metodologias. | - |
Formato: dc.format | application/pdf | - |
Idioma: dc.language | pt_BR | - |
Publicador: dc.publisher | Universidade Tecnológica Federal do Paraná | - |
Publicador: dc.publisher | Cornelio Procopio | - |
Publicador: dc.publisher | Brasil | - |
Publicador: dc.publisher | Programa de Pós-Graduação em Informática | - |
Publicador: dc.publisher | UTFPR | - |
Direitos: dc.rights | openAccess | - |
Palavras-chave: dc.subject | Percepção facial | - |
Palavras-chave: dc.subject | Representações dos grafos | - |
Palavras-chave: dc.subject | Percepção de padrões | - |
Palavras-chave: dc.subject | Face perception | - |
Palavras-chave: dc.subject | Representations of graphs | - |
Palavras-chave: dc.subject | Pattern perception | - |
Palavras-chave: dc.subject | CNPQ::CIENCIAS EXATAS E DA TERRA | - |
Palavras-chave: dc.subject | Ciência da Computação | - |
Título: dc.title | Reconhecimento facial usando descritores locais e redes complexas | - |
Título: dc.title | Face recognition using local descriptors and complex networks | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositorio Institucional da UTFPR - RIUT |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: