
Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
| Metadados | Descrição | Idioma |
|---|---|---|
| Autor(es): dc.contributor | Jeronymo, Daniel Cavalcanti | - |
| Autor(es): dc.contributor | Jeronymo, Daniel Cavalcanti | - |
| Autor(es): dc.contributor | Ensina, Leandro Augusto | - |
| Autor(es): dc.contributor | Oliveira, Maurício Zardo | - |
| Autor(es): dc.creator | Souza, Fernando Luiz Klein de | - |
| Data de aceite: dc.date.accessioned | 2025-08-29T12:33:33Z | - |
| Data de disponibilização: dc.date.available | 2025-08-29T12:33:33Z | - |
| Data de envio: dc.date.issued | 2025-05-12 | - |
| Data de envio: dc.date.issued | 2025-05-12 | - |
| Data de envio: dc.date.issued | 2025-02-17 | - |
| Fonte completa do material: dc.identifier | http://repositorio.utfpr.edu.br/jspui/handle/1/36778 | - |
| Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/capes/1097631 | - |
| Descrição: dc.description | This work proposed the control of a Furuta pendulum using reinforcement learning, addressing challenges such as underactuation, non-linearities, and instabilities. The classical control approach for this system involves positioning the pendulum close to the equilibrium region, a technique known as swing-up, and controlling it at the equilibrium point using a linear controller. However, this approach requires system linearizations, which leads to sub-optimal performance. The main goal of the study was to explore the application of reinforcement learning to handle the complexities of the system, such as its non-linear and unstable characteristics. For this, the Q-Learning algorithm was employed, conducting simulations to compare the performance of the classical controllers and the reinforcement learning-based controller, with metrics focusing on stability, accuracy, and energy efficiency. The results indicate that the Q-Learning-based model performed worse than the classical controllers in terms of tracking error and energy consumption for control, also requiring non-trivial adjustments of hyperparameters to optimize the system’s performance, which significantly increased the training time due to the need to explore and adjust different configurations to achieve acceptable performance. It is concluded that, although classical methods are more suitable for scenarios that require fast and reliable solutions, reinforcement learning represents a promising alternative for complex and uncertain systems, where explicit modeling of the environment is difficult or unfeasible. | - |
| Descrição: dc.description | Este trabalho propôs o controle de um pêndulo de Furuta utilizando aprendizado por reforço, abordando desafios como sub-atuação, não-linearidades e instabilidades. A abordagem clássica de controle para este sistema consiste em situar o pêndulo próximo à região de equilíbrio, técnica conhecida como swing-up, e controlá-lo no ponto de equilíbrio utilizando um controlador linear. No entanto, essa abordagem exige linearizações do sistema, o que resulta em desempenho sub-ótimo. O objetivo principal do estudo foi explorar a aplicação do aprendizado por reforço para lidar com as complexidades do sistema, como suas características não-lineares e instáveis. Para isso, foi empregado o algoritmo Q-Learning, realizando simulações para comparar o desempenho dos controladores clássicos e do controlador baseado em aprendizado por reforço, com métricas focadas em estabilidade, precisão e eficiência energética. Os resultados indicam que o modelo baseado em Q-Learning teve desempenho inferior aos controladores clássicos, em termos de erro de rastreamento e consumo de energia no controle, além de exigir ajustes de hiperparâmetros não triviais para otimizar o desempenho do sistema, o que aumentou significativamente o tempo de treinamento devido à necessidade de explorar e ajustar diferentes configurações para alcançar uma performance aceitável. Conclui-se que, embora os métodos clássicos sejam mais adequados para cenários que exigem soluções rápidas e confiáveis, o aprendizado por reforço representa uma alternativa promissora para sistemas complexos e incertos, nos quais a modelagem explícita do ambiente é difícil ou inviável. | - |
| Formato: dc.format | application/pdf | - |
| Idioma: dc.language | pt_BR | - |
| Publicador: dc.publisher | Universidade Tecnológica Federal do Paraná | - |
| Publicador: dc.publisher | Toledo | - |
| Publicador: dc.publisher | Brasil | - |
| Publicador: dc.publisher | Engenharia de Computação | - |
| Publicador: dc.publisher | UTFPR | - |
| Direitos: dc.rights | openAccess | - |
| Direitos: dc.rights | Attribution 4.0 International | - |
| Direitos: dc.rights | http://creativecommons.org/licenses/by/4.0/ | - |
| Palavras-chave: dc.subject | Aprendizado por Reforço | - |
| Palavras-chave: dc.subject | Teoria de controle não linear | - |
| Palavras-chave: dc.subject | Sistemas dinâmicos diferenciais | - |
| Palavras-chave: dc.subject | Reinforcement learning | - |
| Palavras-chave: dc.subject | Nonlinear control theory | - |
| Palavras-chave: dc.subject | Differentiable dynamical systems | - |
| Palavras-chave: dc.subject | CNPQ::ENGENHARIAS | - |
| Título: dc.title | Controle de um pêndulo de Furuta com aprendizado por reforço | - |
| Título: dc.title | Control of a Furuta pendulum with reinforcement learning | - |
| Tipo de arquivo: dc.type | livro digital | - |
| Aparece nas coleções: | Repositorio Institucional da UTFPR - RIUT | |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: