Inferencia gramatical : aplicações em composição algorítmica para modelagem de sequencia de acordes.

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorMoreira, Gladston Juliano Prates-
Autor(es): dc.contributorRibeiro, Rodrigo Geraldo-
Autor(es): dc.contributorMoreira, Gladston Juliano Prates-
Autor(es): dc.contributorRibeiro, Rodrigo Geraldo-
Autor(es): dc.contributorSilva, Ivair Ramos-
Autor(es): dc.contributorSantos, Valéria de Carvalho-
Autor(es): dc.contributorWanner, Elizabeth Fialho-
Autor(es): dc.contributorOttoni, Amanda Gonçalves Saraiva-
Autor(es): dc.creatorLopes, Henrique Barros-
Data de aceite: dc.date.accessioned2025-08-21T15:39:35Z-
Data de disponibilização: dc.date.available2025-08-21T15:39:35Z-
Data de envio: dc.date.issued2024-08-05-
Data de envio: dc.date.issued2024-08-05-
Data de envio: dc.date.issued2023-
Fonte completa do material: dc.identifierhttps://www.repositorio.ufop.br/handle/123456789/18205-
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/capes/1020880-
Descrição: dc.descriptionPrograma de Pós-Graduação em Ciência da Computação. Departamento de Ciência da Computação, Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto.-
Descrição: dc.descriptionInferência Gramatical é uma área amplamente estudada que utiliza algoritmos para inferir uma gramatica formal. As gramáticas inferidas podem ser aplicadas em uma grande vari- edade de áreas, como Linguística Computacional e Composição algorítmica. A literatura carece de algoritmos que tentam inferir Gramaticas Livres de Contexto Probabilísticas, ou mais expressivas. Para as primeiras, a literatura pode se beneficiar de algoritmos que tentam identificar as estruturas internas de uma gramatica. Na Composição Algorítmica, estudos re- centes mostraram que Modelos Ocultos de Markov podem superar Cadeias de Markov em termos de acurácia, porém não há diferenças significativas entre Modelos Ocultos de Markov e Gramaticas Livres de Contexto Probabilísticas (GLCPs). Nao há resultados na literatura que comprovam se inferir probabilidades sensíveis ao contexto podem superar ambas gramaticas. Este trabalho possui duas principais frentes, elaborar algoritmos de Inferência Gramatical e aplicar as gramaticas inferidas na área de Composição Algorítmica. Neste trabalho, desenvol- vemos um novo algoritmo para inferência de Gramáticas Livres de Contexto Probabilísticas chamado Pumping Inference. Ele foi capaz de inferir as linguagens Dyck-n e um subcon- junto da base de dados CoNLL-2003 com acurácia de predição melhor que a Amostragem de Gibbs. Na Composição Algorítmica, aplicamos um algoritmo de Amostragem de Gibbs para inferir Gramaticas (k, l)-Sensíveis ao Contexto Probabilísticas (G(k, l)CSPs) para mode- lar sequencia de acordes musicais. Nossos resultados mostram que a Amostragem de Gibbs e G(k, l)CSPs podem superar GLCPs e o algoritmo de busca de distribuição de probabilidades Metropolis-Hastings com perplexidades até 48% menores em media (valor-p 0,0026).-
Descrição: dc.descriptionGrammatical Inference is a large studied area that uses algorithms to infer a formal gram- mar. The inferred grammars can be applied in a wide variaty of fields, like Computional Linguistics and Computer Music. The literature lacks of algorithm to infer Probabilistic Context-Free Grammars, or more expressive grammars. For the former one, it could bene- fit from new algorithm capable of identify grammar structures. In Computer Music, recent studies show that Hidden Markov Models can outperform Markov Models in terms of accu- racy, but there are no significant differences between Hidden Markov Models and Probabilistic Context-Free Grammars (PCFGs). This work has two main fronts, to develop Grammatical Inference algorithms and Computer Music models. In this work, we develop a new Probabi- listic Context-Free Grammar inference algorithm, called Pumping Inference. It was capable of infer the Dyck-n languages and the CoNLL-2003 data set with smaller prediction accuracy than the Gibbs Sampling. In Computer Music, this work applies a Gibbs Sampling algorithm to infer Probabilistic (k, l)-Context-Sensitive Grammars (P(k, l)CSGs) to model the genera- tion of chord sequences. Our results show Gibbs Sampling and P(k, l)CSGs can improve on PCFGs and the Metropolis-Hastings algorithm with perplexity values that are 48% lower on average (p-value 0.0026).-
Formato: dc.formatapplication/pdf-
Idioma: dc.languagept_BR-
Direitos: dc.rightsaberto-
Direitos: dc.rightsAttribution-NonCommercial-NoDerivs 3.0 United States-
Direitos: dc.rightshttp://creativecommons.org/licenses/by-nc-nd/3.0/us/-
Direitos: dc.rightsAutorização concedida ao Repositório Institucional da UFOP pelo(a) autor(a) em 10/05/2024 com as seguintes condições: disponível sob Licença Creative Commons 4.0 que permite copiar, distribuir e transmitir o trabalho, desde que sejam citados o autor e o licenciante. Não permite o uso para fins comerciais nem a adaptação.-
Palavras-chave: dc.subjectInferência gramatical-
Palavras-chave: dc.subjectGramática livre de contexto probabilística-
Palavras-chave: dc.subjectMachine learning-
Palavras-chave: dc.subjectLema do bombeamento-
Título: dc.titleInferencia gramatical : aplicações em composição algorítmica para modelagem de sequencia de acordes.-
Título: dc.titleGrammatical inference : applications on algorithmic composition for chord sequence modeling.-
Tipo de arquivo: dc.typelivro digital-
Aparece nas coleções:Repositório Institucional - UFOP

Não existem arquivos associados a este item.