Atenção:
O eduCAPES é um repositório de objetos educacionais, não sendo responsável por materiais de terceiros submetidos na plataforma. O usuário assume ampla e total responsabilidade quanto à originalidade, à titularidade e ao conteúdo, citações de obras consultadas, referências e outros elementos que fazem parte do material que deseja submeter. Recomendamos que se reporte diretamente ao(s) autor(es), indicando qual parte do material foi considerada imprópria (cite página e parágrafo) e justificando sua denúncia.
Caso seja o autor original de algum material publicado indevidamente ou sem autorização, será necessário que se identifique informando nome completo, CPF e data de nascimento. Caso possua uma decisão judicial para retirada do material, solicitamos que informe o link de acesso ao documento, bem como quaisquer dados necessários ao acesso, no campo abaixo.
Todas as denúncias são sigilosas e sua identidade será preservada. Os campos nome e e-mail são de preenchimento opcional. Porém, ao deixar de informar seu e-mail, um possível retorno será inviabilizado e/ou sua denúncia poderá ser desconsiderada no caso de necessitar de informações complementares.
Metadados | Descrição | Idioma |
---|---|---|
Autor(es): dc.contributor | Muñoz Arboleda, Daniel Mauricio | - |
Autor(es): dc.contributor | jeffersonadiniz@gmail.com | - |
Autor(es): dc.creator | Ferreira, Jefferson Adiniz Borges | - |
Data de aceite: dc.date.accessioned | 2024-10-23T15:50:40Z | - |
Data de disponibilização: dc.date.available | 2024-10-23T15:50:40Z | - |
Data de envio: dc.date.issued | 2021-06-09 | - |
Data de envio: dc.date.issued | 2021-06-09 | - |
Data de envio: dc.date.issued | 2021-06-09 | - |
Data de envio: dc.date.issued | 2020-12-17 | - |
Fonte completa do material: dc.identifier | https://repositorio.unb.br/handle/10482/41133 | - |
Fonte: dc.identifier.uri | http://educapes.capes.gov.br/handle/capes/893443 | - |
Descrição: dc.description | Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2020. | - |
Descrição: dc.description | O estudo realizado neste trabalho tem como objetivo implementar te ́cnicas de aprendizagem por demonstrac ̧a ̃o usando redes neurais artificiais aplicadas em controle de trajeto ́ria de um roboˆ com trac ̧a ̃o diferencial. Em particular, deseja-se imitar trajeto ́rias que um usua ́rio ensina ao roboˆ mo ́vel usando exclusivamente um controle reativo de desvio de obsta ́cuos a partir da medic ̧a ̃o de distaˆncia com sensores ultrassônicos (entradas do modelo) e um controle de velocidade a partir das velocidades linear e angular que o usua ́rio imprime ao roboˆ (sa ́ıdas desejadas). Dois me ́todos de validac ̧a ̃o das te ́cnicas de aprendizagem foram usadas neste trabalho, a primeira usando um roboˆ virtual e a segunda um proto ́tipo f ́ısico de baixo custo. Durante a validac ̧a ̃o por simulac ̧a ̃o, várias trajeto ́rias foram realizadas no simulador EyeSim com aux ́ılio da engine Unit3D. O simulador permite construir ambientes estruturados e compor uma base de dados com a informac ̧a ̃o dos sensores de medic ̧a ̃o de distaˆcia e as velocidades linear e angular do roboˆ estimadas a partir do modelo cinema ́tico e dos encoders das rodas. Já o proto ́tipo f ́ısico foi construído com microcontroladores Arduino para um controle de baixo nível, assim como para realizar a comunicac ̧a ̃o via bluetooth para controle via aplicativo. Adicionalmente, foi utilizado para aquisic ̧a ̃o dos dados dos sensores ultrassoˆnicos e dos encoders, assim como para armazenar os dados e enviar para nuvem. O robô físico foi treinado em ambientes estruturados estáticos e dinâmicos com obstáculo móvel. Apo ́s a coleta dos dados, as redes neurais do tipo perceptron multicamadas foram treinadas no software Weka, usando o algoritmo de backpropagatipon. Depois das redes neurais serem treinadas, elas foram inseridas nos roboˆs (simulado e f ́ısico), observando o comportamento da trajeto ́ria realizada no processo de imitação e coleta de novos dados. Utilizando linguagem R foram feitas análises dos dados coletados nos experimentos simulados; foi utilizado também o Matlab, o qual realizou regressões lineares dos dados de treinamento, validação e teste das saídas entregues e esperadas pela rede. Esses resultados das regressões mostram o grau de eficiente na aprendizagem obtendo 99% de eficiência no robô simulado até 85% no robô físico. | - |
Descrição: dc.description | The study carried out in this work aims to implement demonstration learning techniques using artificial neural networks applied to control the trajectory of a robot with differential traction. In particular, the aim is to imitate the paths that a user teaches the mobile robot using exclusively a reactive control of deviation of obstacles from the distance medication with ultrasonic sensors (model inputs) and a speed control based on the linear and angular speeds that the user prints to the robot (desired outputs). Two methods of validating the learning techniques were used in this work, the first using a virtual robot and the second a low-cost physical prototype. During the validation by simulation, several paths were performed in the EyeSim simulator with the aid of the Unit3D engine. The simulator allows you to build structured environments and compose a database with information from the distance medication sensors and the linear and angular speeds of the robot estimated from the cinematic model and wheel encoders. The physical prototype was built with Arduino microcontrollers for low level control, as well as for communicating via bluetooth for application control. Additionally, it was used to acquire data from ultrasonic sensors and encoders, as well as to store data and send it to the cloud. The physical robot was trained in static and dynamic structured environments with a mobile obstacle. After data collection, multilayer perceptron neural networks were trained in the Weka software, using the backpropagatipon algorithm. After the neural networks were trained, they were inserted in the robots (simulated and physical), observing the behavior of the path taken in the process of imitation and collection of new data. Using R language, analyzes of the data collected in the simulated experiments were performed; Matlab was also used, which performed linear regressions of the training, validation and test data of the outputs delivered and expected by the network. These regression results show the degree of efficiency in learning, obtaining 99% efficiency in the simulated robot up to 85% in the physical robot. | - |
Formato: dc.format | application/pdf | - |
Direitos: dc.rights | Acesso Aberto | - |
Direitos: dc.rights | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. | - |
Palavras-chave: dc.subject | Aprendizagem por demonstração | - |
Palavras-chave: dc.subject | Redes neurais artificiais | - |
Palavras-chave: dc.subject | Robótica móvel | - |
Título: dc.title | Redes neurais artificiais aplicadas em aprendizagem de trajetória em robótica móvel | - |
Tipo de arquivo: dc.type | livro digital | - |
Aparece nas coleções: | Repositório Institucional – UNB |
O Portal eduCAPES é oferecido ao usuário, condicionado à aceitação dos termos, condições e avisos contidos aqui e sem modificações. A CAPES poderá modificar o conteúdo ou formato deste site ou acabar com a sua operação ou suas ferramentas a seu critério único e sem aviso prévio. Ao acessar este portal, você, usuário pessoa física ou jurídica, se declara compreender e aceitar as condições aqui estabelecidas, da seguinte forma: