Comparação do desempenho de algoritmos de aprendizado de máquina por reforço e por imitação na simulação de veleiros autônomos

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorLeta, Fabiana Rodrigues-
Autor(es): dc.contributorPardal, Juan Manuel-
Autor(es): dc.contributorDias, Daniel Henrique Nogueira-
Autor(es): dc.contributorClua, Esteban Walter Gonzalez-
Autor(es): dc.creatorMéxas, Rodrigo Picinini-
Data de aceite: dc.date.accessioned2024-07-11T18:15:17Z-
Data de disponibilização: dc.date.available2024-07-11T18:15:17Z-
Data de envio: dc.date.issued2021-09-27-
Data de envio: dc.date.issued2021-09-27-
Data de envio: dc.date.issued2020-
Fonte completa do material: dc.identifierhttps://app.uff.br/riuff/handle/1/23361-
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/capes/766783-
Descrição: dc.descriptionEste projeto visa ao estudo de desempenho de dois algoritmos de aprendizado de máquina por reforço, denominados Proximal Policy Optimization e Soft Actor Critic, na simulação de veleiros autônomos e sua resposta às diferentes direções do vento enquanto desviam de obstáculos detectados por análise de imagens. Também, estuda-se o efeito dos algoritmos de aprendizado por imitação Behavioral Cloning e Generative Adversarial Imitation Learning junto aos primeiros algoritmos citados. Utilizam-se para o desenvolvimento a plataforma Unity® e o toolkit de aprendizado de máquina ML-Agents. A metodologia que guia o projeto pode ser aplicada de forma similar para outros problemas de aprendizado por reforço. Por meio do treinamento do agente é possível comparar os resultados e observar que o Proximal Policy Optimization obtém melhor desempenho dentro dos cenários propostos, tanto com e sem o apoio dos algoritmos de aprendizado de imitação-
Descrição: dc.descriptionThis project aims to study the performance of two reinforcement machine learning algorithms, namely the Proximal Policy Optimization and Soft Actor Critic, in the simulation of autonomous sailboats and their response to different wind directions while avoiding obstacles detected by image analysis. Also, the effect of imitation learning algorithms Behavioral Cloning and Generative Adversarial Imitation Learning with the first mentioned algorithms is studied. The Unity® platform and ML-Agents machine learning toolkit are used for development. The methodology that guides the project can be similarly applied to other reinforcement learning problems. Through agent training, it is possible to compare the results and observe that Proximal Policy Optimization obtains better performance within the proposed scenarios, both with and without the support of imitation learning algorithms-
Formato: dc.formatapplication/pdf-
Idioma: dc.languagept_BR-
Direitos: dc.rightsOpen Access-
Direitos: dc.rightshttp://creativecommons.org/licenses/by-nc-nd/3.0/br/-
Direitos: dc.rightsCC-BY-SA-
Palavras-chave: dc.subjectAprendizado de máquina-
Palavras-chave: dc.subjectAprendizado por reforço-
Palavras-chave: dc.subjectUnity-
Palavras-chave: dc.subjectML-Agents-
Palavras-chave: dc.subjectPPO-
Palavras-chave: dc.subjectSAC-
Palavras-chave: dc.subjectBC-
Palavras-chave: dc.subjectGAIL-
Palavras-chave: dc.subjectAprendizado por imitação-
Palavras-chave: dc.subjectVeleiro autônomo-
Palavras-chave: dc.subjectVeículo de superfície não-tripulado-
Palavras-chave: dc.subjectAprendizado de máquina-
Palavras-chave: dc.subjectInteligência artificial-
Palavras-chave: dc.subjectBarco à vela-
Palavras-chave: dc.subjectMachine learning-
Palavras-chave: dc.subjectReinforcement learning-
Palavras-chave: dc.subjectAutonomous sailboat-
Palavras-chave: dc.subjectUnmanned surface vehicle-
Título: dc.titleComparação do desempenho de algoritmos de aprendizado de máquina por reforço e por imitação na simulação de veleiros autônomos-
Tipo de arquivo: dc.typeTrabalho de conclusão de curso-
Aparece nas coleções:Repositório Institucional da Universidade Federal Fluminense - RiUFF

Não existem arquivos associados a este item.