ASR data augmentation in low-resource settings using cross-lingual multi-speaker TTS and cross-lingual voice conversion

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorCoqui-
Autor(es): dc.contributorUniversidade de São Paulo (USP)-
Autor(es): dc.contributorQuintoAndar-
Autor(es): dc.contributorDarmstadt University of Applied Sciences-
Autor(es): dc.contributorUniversidade Estadual Paulista (UNESP)-
Autor(es): dc.contributorUniversidade Federal de Goiás (UFG)-
Autor(es): dc.contributorMercado Livre-
Autor(es): dc.creatorCasanova, Edresson-
Autor(es): dc.creatorShulby, Christopher-
Autor(es): dc.creatorKorolev, Alexander-
Autor(es): dc.creatorJunior, Arnaldo Candido-
Autor(es): dc.creatorda Silva Soares, Anderson-
Autor(es): dc.creatorAluísio, Sandra-
Autor(es): dc.creatorPonti, Moacir Antonelli-
Data de aceite: dc.date.accessioned2025-08-21T22:48:52Z-
Data de disponibilização: dc.date.available2025-08-21T22:48:52Z-
Data de envio: dc.date.issued2025-04-29-
Data de envio: dc.date.issued2022-12-31-
Fonte completa do material: dc.identifierhttp://dx.doi.org/10.21437/Interspeech.2023-496-
Fonte completa do material: dc.identifierhttps://hdl.handle.net/11449/308910-
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/11449/308910-
Descrição: dc.descriptionWe explore cross-lingual multi-speaker speech synthesis and cross-lingual voice conversion applied to data augmentation for automatic speech recognition (ASR) systems in low/medium-resource scenarios. Through extensive experiments, we show that our approach permits the application of speech synthesis and voice conversion to improve ASR systems using only one target-language speaker during model training. We also managed to close the gap between ASR models trained with synthesized versus human speech compared to other works that use many speakers. Finally, we show that it is possible to obtain promising ASR training results with our data augmentation method using only a single real speaker in a target language.-
Descrição: dc.descriptionFundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)-
Descrição: dc.descriptionConselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)-
Descrição: dc.descriptionCoqui-
Descrição: dc.descriptionInstituto de Ciências Matemáticas e de Computação Universidade de São Paulo-
Descrição: dc.descriptionQuintoAndar-
Descrição: dc.descriptionDarmstadt University of Applied Sciences-
Descrição: dc.descriptionSão Paulo State University-
Descrição: dc.descriptionFederal University of Goiás-
Descrição: dc.descriptionMercado Livre-
Descrição: dc.descriptionSão Paulo State University-
Descrição: dc.descriptionFAPESP: #2019/07665-4-
Descrição: dc.descriptionCNPq: 304266/2020-5-
Formato: dc.format1244-1248-
Idioma: dc.languageen-
Relação: dc.relationProceedings of the Annual Conference of the International Speech Communication Association, INTERSPEECH-
???dc.source???: dc.sourceScopus-
Palavras-chave: dc.subjectASR Data Augmentation-
Palavras-chave: dc.subjectCross-lingual Zero-shot Multi-speaker TTS-
Palavras-chave: dc.subjectCross-lingual Zero-shot Voice Conversion-
Palavras-chave: dc.subjectLow-resource-
Palavras-chave: dc.subjectSpeech Recognition-
Palavras-chave: dc.subjectSpeech Synthesis-
Título: dc.titleASR data augmentation in low-resource settings using cross-lingual multi-speaker TTS and cross-lingual voice conversion-
Tipo de arquivo: dc.typeaula digital-
Aparece nas coleções:Repositório Institucional - Unesp

Não existem arquivos associados a este item.