Quantile-based Recalibration of Artificial Neural Networks

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorRodrigues, Guilherme Souza-
Autor(es): dc.creatorReis, Ricardo Torres Bispo-
Data de aceite: dc.date.accessioned2024-10-23T15:05:34Z-
Data de disponibilização: dc.date.available2024-10-23T15:05:34Z-
Data de envio: dc.date.issued2024-07-15-
Data de envio: dc.date.issued2024-07-15-
Data de envio: dc.date.issued2024-07-15-
Data de envio: dc.date.issued2023-03-01-
Fonte completa do material: dc.identifierhttp://repositorio2.unb.br/jspui/handle/10482/48885-
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/capes/874078-
Descrição: dc.descriptionDissertação (mestrado) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2023.-
Descrição: dc.descriptionRedes neurais artificiais são ferramentas poderosas, amplamente utilizadas atualmente para previsão e modelagem de dados. Embora venham se tornando cada vez mais poderosas, mel horias recentes vêm impactando negativamente sua calibração em prol de maior capacidade de previsão, tornando sua real confiança difícil de avaliar (Guo et al., 2017) – ou seja, a acurácia de suas previsões não corresponde à sua estimativa de confiança. Para ilustrar, considere um evento que ocorre 90% das vezes em um experimento aleatório infinito. Uma previsão para tal evento, realizada por um modelo bem calibrado, deveria então cair dentro de um intervalo de 90% de credibilidade cerca de 90% das vezes. Para mitigar este problema, propomos um método de pós-processamento baseado em quan tis para recalibração de redes neurais. O método explora a informação contida nas probabili dades acumuladas, pi = Fˆi(yi|xi), onde xi e yi representam, respectivamente, o i-ésiamo vetor de variáveis explicativas e a i-ésiama variável dependente de um conjunto de recalibração. Fˆi denota a distribuição preditiva acumulada da rede neural. Por meio do método proposto, é possível obter amostras de Monte Carlo da distribuição preditiva recalibrada.-
Descrição: dc.descriptionArtificial neural networks (ANN) are powerful tools for prediction and data modeling. Al though they are becoming ever more powerful, modern improvements have compromised their calibration in favor of enhanced prediction accuracy, thus making their true confidence harder to assess. To address this problem, we propose a new post-processing quantile-based method of recalibration for ANN. To illustrate the method’s mechanics we present two toy examples. In both, recalibration reduced the Mean Squared Error over the original uncalibrated models and provided a better representation of the data generative model. To further investigate the effects of the proposed recalibration procedure, we also present a simulation study comparing various parameter configurations – the recalibration successfully improved performance over the base models in all scenarios under consideration. At last, we apply the proposed method to a problem of diamond price prediction, where it was also able to improve the overall model performance.-
Descrição: dc.descriptionInstituto de Ciências Exatas (IE)-
Descrição: dc.descriptionDepartamento de Estatística (IE EST)-
Descrição: dc.descriptionPrograma de Pós-Graduação em Estatística-
Formato: dc.formatapplication/pdf-
Idioma: dc.languageen-
Direitos: dc.rightsAcesso Aberto-
Palavras-chave: dc.subjectCalibração-
Palavras-chave: dc.subjectIntervalo de confiança-
Palavras-chave: dc.subjectQuantificação de incerteza-
Título: dc.titleQuantile-based Recalibration of Artificial Neural Networks-
Tipo de arquivo: dc.typelivro digital-
Aparece nas coleções:Repositório Institucional – UNB

Não existem arquivos associados a este item.