
Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
| Metadados | Descrição | Idioma |
|---|---|---|
| Autor(es): dc.contributor | Coqui | - |
| Autor(es): dc.contributor | Universidade de São Paulo (USP) | - |
| Autor(es): dc.contributor | QuintoAndar | - |
| Autor(es): dc.contributor | Darmstadt University of Applied Sciences | - |
| Autor(es): dc.contributor | Universidade Estadual Paulista (UNESP) | - |
| Autor(es): dc.contributor | Universidade Federal de Goiás (UFG) | - |
| Autor(es): dc.contributor | Mercado Livre | - |
| Autor(es): dc.creator | Casanova, Edresson | - |
| Autor(es): dc.creator | Shulby, Christopher | - |
| Autor(es): dc.creator | Korolev, Alexander | - |
| Autor(es): dc.creator | Junior, Arnaldo Candido | - |
| Autor(es): dc.creator | da Silva Soares, Anderson | - |
| Autor(es): dc.creator | Aluísio, Sandra | - |
| Autor(es): dc.creator | Ponti, Moacir Antonelli | - |
| Data de aceite: dc.date.accessioned | 2025-08-21T22:48:52Z | - |
| Data de disponibilização: dc.date.available | 2025-08-21T22:48:52Z | - |
| Data de envio: dc.date.issued | 2025-04-29 | - |
| Data de envio: dc.date.issued | 2022-12-31 | - |
| Fonte completa do material: dc.identifier | http://dx.doi.org/10.21437/Interspeech.2023-496 | - |
| Fonte completa do material: dc.identifier | https://hdl.handle.net/11449/308910 | - |
| Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/11449/308910 | - |
| Descrição: dc.description | We explore cross-lingual multi-speaker speech synthesis and cross-lingual voice conversion applied to data augmentation for automatic speech recognition (ASR) systems in low/medium-resource scenarios. Through extensive experiments, we show that our approach permits the application of speech synthesis and voice conversion to improve ASR systems using only one target-language speaker during model training. We also managed to close the gap between ASR models trained with synthesized versus human speech compared to other works that use many speakers. Finally, we show that it is possible to obtain promising ASR training results with our data augmentation method using only a single real speaker in a target language. | - |
| Descrição: dc.description | Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) | - |
| Descrição: dc.description | Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) | - |
| Descrição: dc.description | Coqui | - |
| Descrição: dc.description | Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo | - |
| Descrição: dc.description | QuintoAndar | - |
| Descrição: dc.description | Darmstadt University of Applied Sciences | - |
| Descrição: dc.description | São Paulo State University | - |
| Descrição: dc.description | Federal University of Goiás | - |
| Descrição: dc.description | Mercado Livre | - |
| Descrição: dc.description | São Paulo State University | - |
| Descrição: dc.description | FAPESP: #2019/07665-4 | - |
| Descrição: dc.description | CNPq: 304266/2020-5 | - |
| Formato: dc.format | 1244-1248 | - |
| Idioma: dc.language | en | - |
| Relação: dc.relation | Proceedings of the Annual Conference of the International Speech Communication Association, INTERSPEECH | - |
| ???dc.source???: dc.source | Scopus | - |
| Palavras-chave: dc.subject | ASR Data Augmentation | - |
| Palavras-chave: dc.subject | Cross-lingual Zero-shot Multi-speaker TTS | - |
| Palavras-chave: dc.subject | Cross-lingual Zero-shot Voice Conversion | - |
| Palavras-chave: dc.subject | Low-resource | - |
| Palavras-chave: dc.subject | Speech Recognition | - |
| Palavras-chave: dc.subject | Speech Synthesis | - |
| Título: dc.title | ASR data augmentation in low-resource settings using cross-lingual multi-speaker TTS and cross-lingual voice conversion | - |
| Tipo de arquivo: dc.type | aula digital | - |
| Aparece nas coleções: | Repositório Institucional - Unesp | |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: