Uma contribuição à teoria da informação e ao critério de informação de Akaike

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorLuizar Obregon, Jesus Alexei-
Autor(es): dc.contributorPacoricona, Aldo Amilcar Bazan-
Autor(es): dc.contributorSantos, Hugo Henrique Kegler dos-
Autor(es): dc.contributorFonseca, Luiz Fernando Cerqueira-
Autor(es): dc.creatorAraujo, Adrielle Braga de-
Data de aceite: dc.date.accessioned2024-07-11T17:53:58Z-
Data de disponibilização: dc.date.available2024-07-11T17:53:58Z-
Data de envio: dc.date.issued2021-09-14-
Data de envio: dc.date.issued2021-09-14-
Data de envio: dc.date.issued2019-
Fonte completa do material: dc.identifierhttps://app.uff.br/riuff/handle/1/23209-
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/capes/759698-
Descrição: dc.descriptionSempre que fazemos observações estatísticas ou planejamos e realizamos experimentos estatísticos, buscamos informações. Consequentemente, o conceito de informação desempenha um papel importante em áreas que utilizam sistemas probabilísticos ou estatísticos de observações. Neste trabalho estudamos duas variáveis aleatórias centrais da teoria da informação: a informação de Shannon e a informação de Kullback-Leibler. Mostramos que as respectivas esperanças matemáticas são conhecidas como entropia de Shannon e divergência de Kullback-Leibler. Dedicamos mais espaço para estudar as propriedades matemáticas da divergência de Kullback-Leibler com o objetivo de mostrar sua aplicação na seleção de modelos probabilísticos como uma medida da “distância” entre distribuições de probabilidade. Apresentamos o critério de informação de Akaike como uma metodologia de otimização da esperança da divergência de Kullback-Leibler-
Descrição: dc.descriptionWhenever we make statistical observations or design and conduct statistical experiments, we seek information. Consequently, the concept of information plays an important role in fields that use probabilistic or statistical systems of observations. In this work, we study two central random variables in information theory: Shannon’s information and Kullback-Leibler’s information. We show that their respective mathematical expectations are known as Shannon’s entropy and Kullback-Leibler divergence. We dedicate more space to study the mathematical properties of Kullback-Leibler divergence in order to show its application in the selection of probabilistic models as a measure of the “distance” between probability distributions. We present the Akaike information criterion as a methodology for optimizing the expectation of Kullback-Leibler divergence-
Descrição: dc.description49 f.-
Formato: dc.formatapplication/pdf-
Idioma: dc.languagept_BR-
Direitos: dc.rightsOpen Access-
Direitos: dc.rightshttp://creativecommons.org/licenses/by-nc-nd/3.0/br/-
Direitos: dc.rightsCC-BY-SA-
Palavras-chave: dc.subjectTeoria da informação-
Palavras-chave: dc.subjectInformação de Shannon-
Palavras-chave: dc.subjectInformação de Kullback-Leibler-
Palavras-chave: dc.subjectEntropia de Shannon-
Palavras-chave: dc.subjectDivergência de Kullback-Leibler-
Palavras-chave: dc.subjectCritério de informação de Akaike-
Palavras-chave: dc.subjectTeoria da informação-
Palavras-chave: dc.subjectTeoria da probabilidade-
Palavras-chave: dc.subjectEstatística matemática-
Palavras-chave: dc.subjectSérie temporal-
Palavras-chave: dc.subjectInformation theory-
Palavras-chave: dc.subjectShannon’s information-
Palavras-chave: dc.subjectKullback-Leibler’s information-
Palavras-chave: dc.subjectShannon’s entropy-
Palavras-chave: dc.subjectKullback-Leibler divergence-
Palavras-chave: dc.subjectAkaike information criterion-
Título: dc.titleUma contribuição à teoria da informação e ao critério de informação de Akaike-
Tipo de arquivo: dc.typeTrabalho de conclusão de curso-
Aparece nas coleções:Repositório Institucional da Universidade Federal Fluminense - RiUFF

Não existem arquivos associados a este item.