Estimadores para o alcance de uma cadeia de Markov: um estudo comparativo

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorPinto, Douglas Rodrigues-
Autor(es): dc.contributorYaginuma, Karina Yuriko-
Autor(es): dc.contributorSisko, Valentin-
Autor(es): dc.contributorSantos, Hugo Henrique Kegler dos-
Autor(es): dc.creatorRodrigues, Bruno César Santos-
Data de aceite: dc.date.accessioned2024-07-11T17:36:04Z-
Data de disponibilização: dc.date.available2024-07-11T17:36:04Z-
Data de envio: dc.date.issued2020-05-19-
Data de envio: dc.date.issued2020-05-19-
Data de envio: dc.date.issued2018-
Fonte completa do material: dc.identifierhttps://app.uff.br/riuff/handle/1/13803-
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/capes/753599-
Descrição: dc.descriptionNeste trabalho abordamos as cadeias estocásticas de ordem finita em um alfabeto finito, estando interessados no quanto do presente é influenciado pelo passado. Observamos uma amostra implementada com programa na linguagem R (www.r-project.org), a fim de estimar as probabilidades de transição de uma cadeia de Markov de alcance k, com k fixado. Em seguida, estudamos os estimadores de alcance k de um processo de Markov com probabilidade de transição e alcance desconhecidos. Utilizamos o critério de informação Bayesiano(BIC), também conhecido como Critério de Schwarz, algoritmo contexto e o critério de determinação eficiente(EDC). Por fim, comparamos a precisão de cada método quando submetidos a amostras geradas computacionalmente-
Formato: dc.formatapplication/pdf-
Idioma: dc.languagept_BR-
Direitos: dc.rightsOpen Access-
Direitos: dc.rightshttp://creativecommons.org/licenses/by-nc-nd/3.0/br/-
Direitos: dc.rightsCC-BY-SA-
Palavras-chave: dc.subjectCadeia de Markov-
Palavras-chave: dc.subjectAlgoritmo contexto-
Palavras-chave: dc.subjectCritério de informação bayesiano-
Palavras-chave: dc.subjectCritério de determinação eficiente-
Palavras-chave: dc.subjectCadeia de Markov-
Título: dc.titleEstimadores para o alcance de uma cadeia de Markov: um estudo comparativo-
Tipo de arquivo: dc.typeTrabalho de conclusão de curso-
Aparece nas coleções:Repositório Institucional da Universidade Federal Fluminense - RiUFF

Não existem arquivos associados a este item.