Escalonamento horizontal baseado em Reinforcement Learning

Registro completo de metadados
MetadadosDescriçãoIdioma
Autor(es): dc.contributorMontaño, Razer Anthom Nizer Rojas, 1975--
Autor(es): dc.contributorUniversidade Federal do Paraná-
Autor(es): dc.creatorScholze, Alice Neves-
Data de aceite: dc.date.accessioned2025-09-01T10:34:47Z-
Data de disponibilização: dc.date.available2025-09-01T10:34:47Z-
Data de envio: dc.date.issued2022-07-01-
Data de envio: dc.date.issued2022-07-01-
Data de envio: dc.date.issued2020-
Fonte completa do material: dc.identifierhttps://hdl.handle.net/1884/76251-
Fonte: dc.identifier.urihttp://educapes.capes.gov.br/handle/1884/76251-
Descrição: dc.descriptionOrientador: Prof. Dr. Razer Anthom Nizer Rojas Montano-
Descrição: dc.descriptionMonografia (especialização) - Universidade Federal do Paraná, Setor de de Educação Profissional e Tecnológica, Curso de Especialização em Inteligência Artificial Aplicada.-
Descrição: dc.descriptionInclui referências: p. 20-
Descrição: dc.descriptionResumo: A computação em nuvem trouxe o conceito de escalabilidade e, como forma de dispor os sistemas na nuvem, passaram a ser utilizadas aplicações conteinerizadas. O Kubernetes provê a possibilidade de escalar aplicações por meio dos pods — conjunto de containers. Consegue realizar este processo de forma automática (HPA) utilizando métricas de CPU e memória, porém não com a latência, um valor que pode ser constantemente alterado conforme a quantidade de requisições. Dado que Reinforcement Learnings (RLs) atuam com cenários iterativos, esta pesquisa partiu da hipótese de que os modelos Q-Learning e SARSA conseguem escalar a quantidade de pods de uma aplicação, baseados na latência e, atingir melhores resultados que o HPA. Para testar esta hipótese, foi desenvolvida uma aplicação contida no Kubernetes que informa a métrica de latência. Esta métrica é lida pelos modelos, que a utilizam para definir a quantidade de pods. Como resultado, a hipótese se mostrou verdadeira dado que ambos os modelos mostraram adaptabilidade, aumentando e diminuindo a quantidade de pods quanto necessário. As principais diferenças entre eles foram que o SARSA manteve em maior proporção a latência dentro do ideal, enquanto que o Q-Learning demonstrou uma adaptação mais rápida ao sair de um estado de alta para baixa latência. Já comparados ao HPA, ambos os modelos atingiram melhores resultados.-
Formato: dc.format1 recurso online : PDF.-
Formato: dc.formatapplication/pdf-
Formato: dc.formatapplication/pdf-
Palavras-chave: dc.subjectInteligência artificial-
Palavras-chave: dc.subjectComputação em nuvem-
Palavras-chave: dc.subjectAlgorítmos de computador-
Título: dc.titleEscalonamento horizontal baseado em Reinforcement Learning-
Aparece nas coleções:Repositório Institucional - Rede Paraná Acervo

Não existem arquivos associados a este item.