Amostrador de Gibbs aproximado usando Computação Bayesiana Aproximada e regressão quantílica via redes neurais artificiais

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorRodrigues, Guilherme Souza-
Autor(es): dc.contributordeboradelasantos@yahoo.com.br-
Autor(es): dc.creatorSantos, Débora Cristiane dos-
Data de aceite: dc.date.accessioned2021-10-14T18:37:41Z-
Data de disponibilização: dc.date.available2021-10-14T18:37:41Z-
Data de envio: dc.date.issued2021-04-09-
Data de envio: dc.date.issued2021-04-09-
Data de envio: dc.date.issued2021-04-09-
Data de envio: dc.date.issued2021-01-17-
Fonte completa do material: dc.identifierhttps://repositorio.unb.br/handle/10482/40488-
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/capes/636162-
Descrição: dc.descriptionDissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2021.-
Descrição: dc.descriptionEm muitos problemas de inferência Bayesiana em que os dados são complexos ou de alta dimensão, a distribuição marginal e a verossimilhança são analiticamente intratáveis ou difíceis de serem computadas, o que gera um obstáculo para obtenção da distribuição a posteriori. Na literatura Estatística existem diferentes métodos propostos para estimar a distribuição a posteriori nesses casos. Este trabalho teve como objetivo aprimorar, introduzindo duas inovações, o amostrador Gibbs-ABC proposto por Rodrigues, Nott e Sisson (2019), no qual, para contornar o problema da dimensionalidade, substitui-se, no algoritmo de Gibbs, as distribuições condicionais completas por aproximações obtidas por modelos de regressão ajustados sobre dados sintéticos. Propomos realizar a aproximação das condicionais completas acumuladas por meio do ajuste de regressão quantílica via redes neurais com correção spline monotônica, técnica que se destaca pela flexibilidade e capacidade de lidar com interações e não-linearidades nos dados. Além disso, na abordagem proposta é possível optar por utilizar uma estratégia de reparametrização/descorrelação dos parâmetros, antes de proceder com a estimação das condicionais completas. O desempenho do método proposto foi avaliado por meio de dois estudos de simulação, os quais apresentaram resultados satisfatórios.-
Descrição: dc.descriptionCoordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES).-
Descrição: dc.descriptionIn many Bayesian inference problems where the data is complex or large, the marginal distribution p(X) and the likelihood p(X|θ) are analytically intractable or difficult to be computed, which creates an obstacle to obtain the posterior distribution. In the Statistical literature, there are different methods proposed to estimate the posterior distribution in these cases. This work introduces two innovations to the Gibbs-ABC sampler proposed by Rodrigues, Nott e Sisson (2019), in which, to circumvent the dimensionality problem, in the Gibbs algorithm, the complete conditional distributions are replaced by approximations obtained by regression models, fitted over synthetic data. We propose to approximate the cumulative complete conditionals through the adjustment of quantile regression via neural networks with monotonic spline correction, a technique that stands out for its flexibility and ability to deal with the interections and non-linearities in the data. In addition, in our approach, it is possible to use a reparametrization/parameter decorrelation strategy, before proceeding with the estimation of the complete conditionals. The performance of the proposed method was analysed using two simulation studies, which shown satisfactory results.-
Formato: dc.formatapplication/pdf-
Direitos: dc.rightsAcesso Aberto-
Direitos: dc.rightsA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data.-
Palavras-chave: dc.subjectAmostragem de Gibbs-
Palavras-chave: dc.subjectRedes neurais-
Palavras-chave: dc.subjectRegressão quantílica-
Palavras-chave: dc.subjectInferência estatística-
Palavras-chave: dc.subjectDescorrelação-
Título: dc.titleAmostrador de Gibbs aproximado usando Computação Bayesiana Aproximada e regressão quantílica via redes neurais artificiais-
Tipo de arquivo: dc.typelivro digital-
Aparece nas coleções:Repositório Institucional – UNB

Não existem arquivos associados a este item.