Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.creator | Silva, Pedro Henrique Lopes | - |
Autor(es): dc.creator | Luz, Eduardo José da Silva | - |
Autor(es): dc.creator | Moreira, Gladston Juliano Prates | - |
Autor(es): dc.creator | Moraes, Lauro Ângelo Gonçalves de | - |
Autor(es): dc.creator | Gomes, David Menotti | - |
Data de aceite: dc.date.accessioned | 2025-08-21T15:58:10Z | - |
Data de disponibilização: dc.date.available | 2025-08-21T15:58:10Z | - |
Data de envio: dc.date.issued | 2020-07-21 | - |
Data de envio: dc.date.issued | 2020-07-21 | - |
Data de envio: dc.date.issued | 2019 | - |
Fonte completa do material: dc.identifier | http://www.repositorio.ufop.br/handle/123456789/12481 | - |
Fonte completa do material: dc.identifier | https://doi.org/10.3390/s19132968 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/capes/1028858 | - |
Descrição: dc.description | Multimodal systems are a workaround to enhance the robustness and effectiveness of biometric systems. A proper multimodal dataset is of the utmost importance to build such systems. The literature presents some multimodal datasets, although, to the best of our knowledge, there are no previous studies combining face, iris/eye, and vital signals such as the Electrocardiogram (ECG). Moreover, there is no methodology to guide the construction and evaluation of a chimeric dataset. Taking that fact into account, we propose to create a chimeric dataset from three modalities in this work: ECG, eye, and face. Based on the Doddington Zoo criteria, we also propose a generic and systematic protocol imposing constraints for the creation of homogeneous chimeric individuals, which allow us to perform a fair and reproducible benchmark. Moreover, we have proposed a multimodal approach for these modalities based on state-of-the-art deep representations built by convolutional neural networks. We conduct the experiments in the open-world verification mode and on two different scenarios (intra-session and inter-session), using three modalities from two datasets: CYBHi (ECG) and FRGC (eye and face). Our multimodal approach achieves impressive decidability of 7.20 ± 0.18, yielding an almost perfect verification system (i.e., Equal Error Rate (EER) of 0.20% ± 0.06) on the intra-session scenario with unknown data. On the inter-session scenario, we achieve a decidability of 7.78 ± 0.78 and an EER of 0.06% ± 0.06. In summary, these figures represent a gain of over 28% in decidability and a reduction over 11% of the EER on the intra-session scenario for unknown data compared to the best-known unimodal approach. Besides, we achieve an improvement greater than 22% in decidability and an EER reduction over 6% in the inter-session scenario. | - |
Formato: dc.format | application/pdf | - |
Idioma: dc.language | en | - |
Direitos: dc.rights | aberto | - |
Direitos: dc.rights | This article is an open access article distributed under the terms and conditions of the Creative Commons Attribution (CC BY) license (http://creativecommons.org/licenses/by/4.0/). Fonte:o próprio artigo. | - |
Palavras-chave: dc.subject | Multimodal biometrics | - |
Palavras-chave: dc.subject | Deep learning | - |
Palavras-chave: dc.subject | Deep representation | - |
Título: dc.title | Chimerical dataset creation protocol based on Doddington Zoo : a biometric application with face, eye, and ECG. | - |
Aparece nas coleções: | Repositório Institucional - UFOP |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: