Aprendizado de máquina: a partir da Teoria do Aprendizado Estatístico e aplicação em redes neurais

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorPaula, Alan Prata de-
Autor(es): dc.contributorhttp://lattes.cnpq.br/5563354983779002-
Autor(es): dc.contributorFreitas, Marina Sequeiros Dias de-
Autor(es): dc.contributorhttp://lattes.cnpq.br/6603538640938115-
Autor(es): dc.contributorEgea, Leandro Gines-
Autor(es): dc.contributorhttp://lattes.cnpq.br/4667573771934869-
Autor(es): dc.contributorCaminha, Vera Lúcia Prudência-
Autor(es): dc.contributorhttp://lattes.cnpq.br/5192328854991448-
Autor(es): dc.creatorMauhnoom, Yeonatan-
Data de aceite: dc.date.accessioned2025-01-03T11:44:06Z-
Data de disponibilização: dc.date.available2025-01-03T11:44:06Z-
Data de envio: dc.date.issued2024-07-26-
Data de envio: dc.date.issued2024-07-26-
Fonte completa do material: dc.identifierhttps://app.uff.br/riuff/handle/1/33688-
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/capes/920689-
Descrição: dc.descriptionTeoria de Aprendizado Estatístico (TAE) permite uma abordagem do estudo do problema de aprendizado de máquina a partir de uma fundamentação matemática que utiliza conhecimentos da teoria da Probabilidade e Estatística. Ela fornece uma base teórica para entender o desempenho de vários algoritmos e modelos de aprendizado de máquina, bem como para desenvolver novos algoritmos e modelos capazes de aprender a partir de dados de maneira estatisticamente sólida. Neste trabalho abordamos os principais conceitos do Aprendizado de Máquina de uma perspectiva da Teoria de Aprendizado Estatístico. E realizamos um estudo aplicado em algoritmos de redes neurais dos tipos perceptron e perceptron multicamadas. No seu cerne, a Teoria do Aprendizado Estatístico está preocupada com o problema da generalização, que é a capacidade de um algoritmo de aprendizado de máquina fazer previsões precisas em novos dados não vistos com base em padrões aprendidos a partir de um conjunto finito de dados de treinamento. Visando desenvolver métodos que possam alcançar um bom desempenho de generalização, mesmo quando o número de exemplos de treinamento é limitado e os dados são ruidosos ou complexos. O objetivo deste trabalho, é a partir da formulação matemática e estatística fornecida pelas ferramentas da TAE, como as cotas probabilísticas de Hoeffdings e Chernoff e a Lei dos Grandes Números , provar resultados que garantem a consistência e desempenho de um algoritmo de aprendizado supervisionado e, posteriormente, implementar e testar um dos principais modelos desse tipo de algoritmo: as redes neurais Perceptron Multicamadas ou Multilayer Perceptron (MLP) em problemas de classificação-
Descrição: dc.descriptionStatistical Learning Theory (SLT) provides an approach to studying the problem of machine learning grounded in a mathematical foundation that utilizes knowledge from the fields of Probability and Statistics. It offers a theoretical basis for understanding the performance of various algorithms and machine learning models, as well as for developing new algorithms and models capable of learning from data in a statistically robust manner. In this work, we address the main concepts of Machine Learning from the perspective of Statistical Learning Theory. And a practical approach on the study of Perceptron and Multilayerperceptron neural network algorithms. At its core, statistical learning theory is concerned with the problem of generalization, which is the ability of a machine learning algorithm to make accurate predictions on new, unseen data based on patterns learned from a finite set of training data. Aiming to develop methods that can achieve strong generalization performance, even in cases where the number of training examples is limited and the data are too noisy or complex. The objective of this work is, starting from the mathematical and statistical formulation provided by the tools of SLT, such as Hoeffding’s and Chernoff’s probability bounds and the Law of Large Numbers, to prove results that ensure the consistency and performance of a supervised learning algorithm, and subsequently, to implement and test one of the principal models of this type of algorithm: the Multilayer Perceptron (MLP) networks in classification problems-
Descrição: dc.description103 p.-
Formato: dc.formatapplication/pdf-
Idioma: dc.languagept_BR-
Direitos: dc.rightsOpen Access-
Direitos: dc.rightsCC-BY-SA-
Palavras-chave: dc.subjectAprendizado de máquinas-
Palavras-chave: dc.subjectAprendizado supervisionado-
Palavras-chave: dc.subjectMinimização do risco empírico-
Palavras-chave: dc.subjectDimensão VC-
Palavras-chave: dc.subjectPerceptron multicamadas-
Palavras-chave: dc.subjectCiência da computação-
Palavras-chave: dc.subjectEstatística-
Palavras-chave: dc.subjectMachine learning-
Palavras-chave: dc.subjectSupervised learning-
Palavras-chave: dc.subjectEmpirical risk minimization-
Palavras-chave: dc.subjectVC dimension-
Palavras-chave: dc.subjectMultilayer perceptron-
Título: dc.titleAprendizado de máquina: a partir da Teoria do Aprendizado Estatístico e aplicação em redes neurais-
Tipo de arquivo: dc.typeTrabalho de conclusão de curso-
Aparece nas coleções:Repositório Institucional da Universidade Federal Fluminense - RiUFF

Não existem arquivos associados a este item.